<body> <script type="text/javascript" src="https://ad.netowl.jp/js/webcrow-php.js"></script>
私立メロン高校パソコン部
6026575

JavaWget


2015年09月15日 03:53:02

ダウンローダのwgetのGUIフロントエンドソフトです。
コマンドラインソフトなので分からない人の為にGUIで使えるようにしました。

サイトを丸ごとバックアップしたり、
サイトの画像を全て一括で落とすこともできます。

私がサイト別の設定方法を書いておきました。
設定方法を書いたサイトは、
eventsnews.info、sorekarano.blomaga.jp、エロ幕府、
双葉ちゃん、二次萌エロ画像ブログ、JUGEM

Javaで作りましたのでマルチプラットフォームソフトです。
64bit、32bitOSに関わらず動作します。
xp、vista、windows7、windows8など動作します。
windows10、MacOSX、Linuxも動作します。

2015/9/28
ダウンロード
ver1.0.5

ver1.0.0

posted by 管理人
カテゴリー その他
view(1985)
コメント(8)


1.名前:佐藤 2015年09月25日 08:04:02ID:1fe8fa

いつもお世話になっております。
いろんなサイトを見て回るのでURLをリスト化して画像を保存できたらなと思いこのソフトを使わせて頂いています。

ただ自分の使い方が悪いのか画像が保存されません。

メインタブのところのURLに欲しい画像があるサイトのURLを貼って、
設定タブのwgetのパスのところにwgetと貼り、
設定2のダウンロードするファイルを限定する(accept)にチェックを入れて使用しています。
あとはデフォルトのままです。

それで開始をしてもhtmlができるだけで終わってしまいます。


2.名前:管理人 2015年09月25日 12:34:02ID:

>>佐藤さんへ

そのURLを教えてください。


3.名前:佐藤 2015年09月26日 10:47:02ID:1fe8fa

お返事ありがとうございます。

いろいろ巡回してるんで画像あるところならどこでも構わないのですが例えば、

ttp://eventsnews.info/archives/post-27381.html
とか、
ttp://sorekarano.blomaga.jp/articles/86696.html
とか
ttp://erogazou-pinkline.com/blog-entry-201.html
とかです。

JavaWgetのURLのところに貼り付けて開始してもすぐ終わりましたとでてしまいます。


4.名前:佐藤 2015年09月26日 10:49:02ID:1fe8fa

NGワードにひっかかってしまうのでurlの頭のhは除きました。
JavaWgetのURLのところに貼り付ける際にはhも加えて開始しています。


5.名前:管理人 2015年09月27日 09:16:02ID:

>>佐藤さんへ

その記事の画像だけを落とすのはwgetではたぶん無理だと思う。
再帰的取得だとページ上にリンクされてる他の記事urlに釣られて、
全部落としてしまうのです。

記事の画像だけを落としたいなら、
down them allやFlashgetなどのが良いと思う。

サイトの画像を全て落とすならできます。

http://eventsnews.info/の場合。

URLにhttp://eventsnews.info/を入れる。
「WEBを再帰的に取得(recursive)」をチェック。
「再帰中に別のホストも対象にする(span-hosts)」
のチェックを外す。
「取得階層数指定(level)」のチェックを外す。
「指定したドメインを取得する(domains)」 のチェックを外す。


画像のみ落として、フォルダの作成はしない場合。
設定2タブの「ダウンロードするファイルを限定する(accept)」
をチェックして下にjpg,pngを入れる。
「ディレクトリを作らずダウンロードする(no-directories)」
のチェックを入れる

落とすのは画像のみ。フォルダを作成する場合。
設定2タブの「ダウンロードするファイルを限定する(accept)」
をチェックして下にjpg,pngを入れる。
「ディレクトリを作らずダウンロードする(no-directories)」
のチェックを外す。

全てのファイルを落とす。フォルダを作成する場合。
サイトを丸ごとバックアップしたい場合。
設定2タブの「ダウンロードするファイルを限定する(accept)」
のチェックを外す。
「ディレクトリを作らずダウンロードする(no-directories)」
のチェックを外す。
「相対リンクに変換して保存(convert-links)」をチェック。
「htmlページで必要な画像などを一緒に取得(page-requisites)」をチェック。
「拡張子をhtmlに書き換える(html-extension) 」をチェック。


http://sorekarano.blomaga.jp/の場合。
URLにhttp://sorekarano.blomaga.jp/sitemap.htmlを入れる

設定2タブの「ダウンロードするファイルを限定する(accept)」
をチェックして下にjpg,pngを入れる。
「ダウンロードしないファイルを設定する(reject)」をチェックして
下にs.jpg,s.pngを入れる。
(サムネイル画像を除去)
「WEBを再帰的に取得(recursive)」をチェック。
「親リンクを取得しない(no-parent )」をチェック。
「指定したドメインを取得する(domains)」のチェックを入れる。
その下にsorekarano.blomaga.jp,fc2.comを入れる。
「再帰中に別のホストも対象にする(span-hosts)」のチェックを入れる。
「取得階層数指定(level)」のチェックを入れる。
その下に2を入れる。
設定5タブの「exclude_directories」をチェック、
その下にarchives,tagを入れる。
(重複URLを除去)

フォルダを作るなら、、
「ディレクトリを作らずダウンロードする(no-directories)」
のチェックを外す。

フォルダを作らないなら、
「ディレクトリを作らずダウンロードする(no-directories)」
のチェックを入れる。

pinklineをwgetで落とす設定は分からなかったけど、
エログ画像ダウンローダJavaで落とせる。
http://shimarisu.webcrow.jp/elog_down.html


6.名前:佐藤 2015年09月27日 05:44:02ID:1fe8fa

代替案まで書いて頂いて丁寧な回答ありがとうございます。

普段はfirefoxを使っていて「Video DownloadHelper」か「DownThemAll!」で落としたい画像がまとめられてるページなど保存してるんですが、
PCのスペックが低いのかタブ開き過ぎるとすぐクラッシュしたり動作が重すぎたりと時間があまりにもかかってしまい今回なにかいいダウンロードソフトないかなと探していました。

理想としては
 複数のurlをリスト化してそのurlのページの画像を一括で保存することができる。
 ひとつひとつのurlをそれぞれのページタイトルでフォルダを作成してその中に画像を保存できる

のような機能を持ったソフトがあれば快適に画像を保存しながらもネットを楽しめると思ったのですが、
そのような機能を持ったマルチダウンロードソフトを出したりする予定などないでしょうか。
おこがましい質問ですみません。


7.名前:管理人 2015年09月28日 09:47:02ID:

firefoxは重くてフリーズし易いです。
chromeを使うと良いです。

DownThemAll!の代わりはDownload Masterで
Video DownloadHelperの代わりはDouga Getterがあります。

Douga Getter
https://chrome.google.com/webstore/detail/douga-getter/hhbcihapcmaemjinlbgafnjjihbdmjnf
Download Master
https://chrome.google.com/webstore/detail/download-master/mcceagdollnkjlogmdckgjakjapmkdjf


8.名前:佐藤 2015年09月28日 08:53:02ID:1fe8fa

教えて頂いてありがとうございます。
試しに使ってみます。
いろいろとありがとうございました。



名前   
本文


削除キー
戻る