請問版友,在linux 文字模式下
用curl取得網頁的原始碼後,有較方便快速的方式可以取得網址嗎?
在windows下,有用過dom的方式將特定的tag分析,大概幾行程式碼就可以
將所需要的超連結網址或是圖片網址給取出
目前在linux Command-line interface 打算的做法是
用curl抓原始碼後,再用shell script處理文字檔,以取得所需要的資訊
因為curl抓下的原始碼挺亂的,用shell script處理可能會有loss
想請問版友是否有更好的建議嗎? 感謝 ^_^
不好意思~再請問一下 有人可以解釋下面這段的意思嘛~
sed -n 's/.*\(href\)\=\"\([^[:space:]]*\)\".*/\2/p'
--
★正妹 你相信奇蹟嗎?
To 正妹: 原本不信,但現在我信。
--
用curl取得網頁的原始碼後,有較方便快速的方式可以取得網址嗎?
在windows下,有用過dom的方式將特定的tag分析,大概幾行程式碼就可以
將所需要的超連結網址或是圖片網址給取出
目前在linux Command-line interface 打算的做法是
用curl抓原始碼後,再用shell script處理文字檔,以取得所需要的資訊
因為curl抓下的原始碼挺亂的,用shell script處理可能會有loss
想請問版友是否有更好的建議嗎? 感謝 ^_^
不好意思~再請問一下 有人可以解釋下面這段的意思嘛~
sed -n 's/.*\(href\)\=\"\([^[:space:]]*\)\".*/\2/p'
--
★正妹 你相信奇蹟嗎?
To 正妹: 原本不信,但現在我信。
--
All Comments