例如,我喜歡軍事裝飾,這是Wikipedia的服務功能區,我如何一次下載所有功能區圖像,而不是一個一個地單擊它們,然後選擇“將圖像另存為”?
例如,我喜歡軍事裝飾,這是Wikipedia的服務功能區,我如何一次下載所有功能區圖像,而不是一個一個地單擊它們,然後選擇“將圖像另存為”?
使用OS X的 Automator.app 查找,提取和保存當前網頁中的圖像。所需的操作組合為:
要了解有關使用Automator的更多信息,請參閱Apple的 Mac基礎知識:Automator。
另一種方法是通過命令行使用 curl
,從網站下載所有圖像的最快,最簡單的方法是什麼。
使用 wget
:
wget http://en.wikipedia.org/wiki/Service_Ribbon -p -A .jpg,.jpeg,.png- H -nd
-p
(-頁面要求
)即使在不使用時也會下載圖像和样式表等資源 -r
。 -A
指定要接受的後綴或glob樣式的模式。 -H
(-span-hosts
)會鏈接到其他域,例如 upload.wikimedia.org
。 -nd
(-無目錄
)會將所有文件下載到當前目錄,而無需創建子目錄。
您可以安裝 wget 在安裝 Homebrew後,使用
brew install wget
進行編碼。
您也可以只使用 curl
:
curl example.tumblr.com | grep -o'src =“ [^”] *。jpg“'| cut -d \” -f2 |同時閱讀捲曲“ $ l” -o“ $ {l ## * /}”;完成
從Tumblr或Blogspot下載圖像:
api =“ http://api.tumblr.com/v2/blog/example.tumblr。 com / posts?type = photo&api_key =從tumblr.com/api"seq 0 20 $(curl -s $ api | jq .response.total_posts)|同時讀n;捲曲-s“ $ api&offset = $ n” | jq -r'.response.posts []。photos []。original_size.url'完成| awk'!a [$ 0] ++'|並行wget -qcurl -L'http://someblog.blogspot.com/atom.xml?max-results=499'| grep -io'href = " http:// [^ &] * .jpg'|切-d \; -f2 | awk'!a [$ 0] ++'|並行wget -q
使用Firefox(經過v。61測試),而無需其他軟件:
找到“頁面信息”窗口的“媒體”選項卡。可以通過以下方式之一找到它:
選擇所有圖像地址。
您可以使用Firefox和Flashgot,這是一個擴展程序,可以完全滿足您的需求。
您可以在Mozilla附加組件官方網站此處找到Flashgot
Flashgot使用您選擇的下載管理器,該管理器可以集成在Firefox,curl,wget或其他工具中。我個人喜歡 DownThemAll!。
如果您使用Mac,請在Mac App Store上嘗試“ Cliche:Easy Web Image Collector”。
根據應用說明,
“簡單易用但功能強大的Web圖像Mac版收集器。Cliche使您能夠使用強大的便捷工具快速輕鬆地收集Web圖像。只需使用Cliche瀏覽Web。所有Web圖像都已為您準備就緒。”
有關更多信息,您可以請訪問官方網站: https://machelperprojects.wordpress.com/2015/05/08/cliche-easy-web-image-collector/