<body> <script type="text/javascript" src="https://ad.netowl.jp/js/webcrow-php.js"></script>コメント数が多いユーザーランキング

5383 名前:名無し 2017年06月21日 04:02:21

親記事:マルチ動画ダウンローダJava

こんにちは
DL出来るサイトに(ecchi.iwara.tv)を追加していただくことは出来ませんでしょうか?
よろしくお願いします


5382 名前:ののの 2017年06月20日 10:46:18

親記事:Twitterダウンローダ

やっぱりここのソフトが一番いい…
いつもお世話になってます<(_ _)>


5381 名前:35 2017年06月20日 10:32:58

親記事:マルチ画像掲示板ダウンローダJava

>>43 管理人様
対応していただきありがとうございます。


5380 名前:名無し 2017年06月20日 06:39:17

親記事:マルチ動画ダウンローダJava

このツールを初めて使いました
一応説明通りにニコニコ動画をクッキー貼り付けた状態で使用してます
開始直後
java.net.SocketException: Connection reset
終わりました。
とメッセージが出て動画が落せません
直接URLを貼ると
java.io.IOException: Cannot run program "youtube-dl": CreateProcess error=2, 指定されたファイルが見つかりません
ニコニコ動画の仕様変更なのかそれともクッキーの貼り方が間違ってるのでしょうか


5379 名前:管理人 2017年06月19日 04:39:24

親記事:pixivダウンローダ

>>1251
>>1250

確認したが問題ないです。
時間を置いてからアクセスしてください。

アクセスが多い深夜だと落ちることがあるのかも知れないです。


5378 名前:名無し 2017年06月19日 04:29:15

親記事:pixivダウンローダ

同じくDL出来ないですね

5377 名前:名無し 2017年06月18日 06:45:55

親記事:マルチbooruダウンローダ

Ver1.2.3ですが、フォルダ作成を指定しても作成されません。
以前のバージョンでも同じような事が有りましたが、落としたファイルを再解凍する事で直りました。
現象としては、広告画像を弾くためにNGファイルを有効として内容を色々試していると起こるようです。
どうもConfigファイルの読み込みが上手く行っていないのではと推測しています。
整理の関係で、ファイル名は"(%id%)%def%"、フォルダ名を"%key%(%s_name%)"としています。
NGファイルには従来のものの他に"|_1_|sample"を追加しています。
そのままVer.1.2.2で試した所、同じ現象が出ましたが、PCを再起動してVer1.2.2の元圧縮ファイルより再解凍して実行すると、正常に設定した通りにフォルダとファイルが作成されました。
対応可能ならお願い致します。


5376 名前:名無し 2017年06月16日 04:41:06

親記事:E-HentaiGalleriesダウンローダ

クッキーを取得します。
リモート名を解決できませんでした。: 'forums.e-hentai.org'
リモート名を解決できませんでした。: 'e-hentai.org'

となってダウンロードできなくなりました
何が原因でしょうか


5375 名前:名無し 2017年06月16日 08:05:16

親記事:pixivダウンローダ

onedriveのサイトが落ちていて実行ファイルをDLできません・・・

5374 名前:管理人 2017年06月15日 11:24:19

親記事:E-HentaiGalleriesダウンローダ

>>1052
>Ver2.5.2を使っていますが、wgetでダウンロードすると画像が壊れていることが多いようです。

それって半分グレーの画像ですか?
半分グレーの画像なのでしたら、
タイムアウトを長くすれば良いです。
[web取得]タブの[wgetのタイムアウト時間(秒)]のタイムアウトを変更してください。


5373 名前:管理人 2017年06月15日 11:13:00

親記事:AniTubeダウンローダ

>>167
>>174
>>170

CravingExplorerダウンロードリスト全削除ソフト.exeは22本のアンチウイルスソフトでウイルス判定されますが、
それらのアンチウイルスソフトはハッシュ値だけを見てウイルス判定してるだけ。共有されたブラックリストのデータベースを使うことで、
デマが広まってるのです。嘘も100回付けば本当になるってことです。

最初にこのソフトが怪しまれてブラックリストに登録された理由は
CravingExplorerダウンロードリスト全削除ソフトはCravingExplorerのプロセスを強制終了させるソフトなので、
他のソフトのプロセス落とす動作が怪しまれてるのだと思います。
アンチウイルスソフトというのは少しでも怪しいと排除するのです。
私が作ったソフトの多くがアンチウイルスソフトに登録されてます。
私のソフトは署名してないのでウイルス認定されやすいということもあります。
一般的に個人が作ってるフリーソフトは匿名者が作ってるので署名してないので、 ウイルス認定されてるフリーソフトは多いです。

CravingExplorerダウンロードリスト全削除ソフトはファイルサイズが19kbですが、
vb.netでフォームを作った場合、
何も作らないデフォルトでも12kbあるんだから、
残り7kbでトロイの木馬が作れるわけがないのです。


5372 名前:ウイルス入りかよ! 2017年06月15日 09:44:00

親記事:AniTubeダウンローダ

他のコメントで「トロイの木馬」が入ってるって、
警告があったので、ウイルスチェックしたら、
マジで「トロイの木馬」入りだった。笑うわ。こんなん!


5371 名前:管理人 2017年06月15日 06:42:42

親記事:pixivダウンローダ

>>1247

うごイラtoムービーを使ってください。
http://shimarisu.webcrow.jp/ugoila_to_movie.html


5370 名前:管理人 2017年06月15日 05:58:31

親記事:Twitterダウンローダ

>>ヨシジマくん

>二点目は、このページのソフト紹介分の最後にある、「Twitterオートスクローラーを使いtwitterの検索窓からfrom:akaname filter:imagesで検索してダウンロードすれば・・・」とありますが、3200ツイートより先は手動でコツコツするしかないんでしょうか?

手動で落とすという意味ではないです。
Twitterオートスクローラーは手動でなく自動で3200件以上を落とせます。
Twitterオートスクローラーはキーボードの「end」キーを一定時間ごとに自動で送信するようになってる。
twitterをブラウザで閲覧してる時に「end」キーを押すと、
ブラウザのスクロールバーの一番下まで下がるのです。
連続で「end」キーを押せばtwitterの最後のページまで表示できるのです。
ブラウザでtwitterを閲覧しながら、Twitterオートスクローラーを起動して
放置しとけば、自動でTwitterの最後のページまで表示できる。
最後まで表示したらブラウザの名前を付けてページを保存で
全ての画像を一括で保存することができる。


5369 名前:管理人 2017年06月15日 04:07:42

親記事:Twitterダウンローダ

>>ヨシジマくん
>一点目は、RTしたツイートからもDLしてくれているのですが、元ツイートでは画像が複数枚あるのに、DLフォルダに最初の一枚しか保存されていません。

このソフトで使われてるライブラリのLinqToTwitterは2013年に作られた古いバージョンのだから2013年以降の仕様には対応してないです。
一つのツイートに複数の画像がある仕様は昔は無かったのです。

このソフトは2015年を最後に更新を終わっていて放置してます。

TwitterダウンローダJavaが後継ソフトなので、
TwitterダウンローダJavaの方を使ってください。
http://shimarisu.webcrow.jp/twitte_down_java.html

TwitterダウンローダJavaの方は複数画像を落とせます。


5368 名前:ヨシジマくん 2017年06月14日 08:52:24

親記事:Twitterダウンローダ

はじめまして。
API取得し、ちゃんとDLはできているんですが、2点ほどやり方がわからない部分があります。

一点目は、RTしたツイートからもDLしてくれているのですが、元ツイートでは画像が複数枚あるのに、DLフォルダに最初の一枚しか保存されていません。
複数枚あるツイートのRTからのDLで、そのツイートの全部の画像を保存させるには、どうすればいいのでしょうか?
DL元はTwitter本家のみです。

二点目は、このページのソフト紹介分の最後にある、「Twitterオートスクローラーを使いtwitterの検索窓からfrom:akaname filter:imagesで検索してダウンロードすれば・・・」とありますが、3200ツイートより先は手動でコツコツするしかないんでしょうか?

よろしくお願いします。


5367 名前:名無し 2017年06月14日 02:47:33

親記事:pixivダウンローダ

うごイラをGIFにするツールもここで配布されてるよ

5366 名前:名無し 2017年06月13日 09:20:51

親記事:pixivダウンローダ

うごイラをGIFにして落とす機能の追加予定はありませんか…?
あったら、その、凄い便利だなぁと…


5365 名前:名無し 2017年06月12日 11:58:25

親記事:E-HentaiGalleriesダウンローダ

Ver2.5.2を使っていますが、wgetでダウンロードすると画像が壊れていることが多いようです。
WebRequestでやり直していますが今のところ問題ないです。


5364 名前:管理人 2017年06月12日 05:40:42

親記事:pixivダウンローダ

>>1243
修正しました。
(ver 4.3.4)


5363 名前:管理人 2017年06月12日 05:10:55

親記事:chan.sankakucomplexダウンローダ

>>37
>「Error: 50ページ以上はこの方法で閲覧出来ません」
と出てしまうのでこちらも可能なら対処をお願いします

それはどうしようもないです。
ブラウザで見ても50ページ以上は見れないです。


5362 名前:管理人 2017年06月12日 04:31:07

親記事:chan.sankakucomplexダウンローダ

>>33
>sankakuダウンローダで別々のタグの画像を同時回収またはpixiv当のダウンローダ起動で回収はできますか?
PCにかなりの負担がくるでしょうか

PCに負担がくるかどうかは、
タスクマネージャーでメモリの消費量を見れば分かると思います。
このソフトは大してメモリを消費しないので、
同時起動してもPCに負担は無いですが、
chan.sankakuは連続アクセスを規制してるので、
同時起動はオススメできません。
pixivも連続アクセスを規制してるので同じです。


5361 名前:管理人 2017年06月12日 04:24:49

親記事:chan.sankakucomplexダウンローダ

>>37
>画像のURLを記録してくれる機能はアクセスして画像データを取得しなければ出来ないでしょうか?

setting.iniの
画像urlをブラウザで取得する=1を
画像urlをブラウザで取得する=0にすれば画像を取得しないです。


5360 名前:管理人 2017年06月12日 04:16:58

親記事:tumblrダウンローダ

>>44

私のPCで試しましたが画像が落ちます。

画像が落とせないtumblrのアカウントのurlはどこですか?


5359 名前:管理人 2017年06月12日 04:08:55

親記事:マルチ動画ダウンローダJava

>>64
>・どこにダウンロードされるのかわからない

カレントディレクトリにダウンロードされます。
movie_down.jarがあるフォルダです。

>・バージョンを上げろと言っている割にプログラムにバージョンの記載がない

メインタブの「ver」ボタンをクリックでバージョン表示します。


5358 名前:名無し 2017年06月12日 05:49:07

親記事:E-HentaiGalleriesダウンローダ

あーなんか、直ったみたいです
定期的にe-henにもアクセスしたほうがよさそう


5357 名前:名無し 2017年06月12日 05:28:57

親記事:E-HentaiGalleriesダウンローダ

ちなみにe-hentaiのほうにはログインできます

5356 名前:名無し 2017年06月12日 05:28:15

親記事:E-HentaiGalleriesダウンローダ

例のくまさんマークがでるようになったけど
みんさんはどうですか?
向こうの鯖がおちてるとかないですか?


5355 名前:名無し 2017年06月12日 02:48:41

親記事:E-HentaiGalleriesダウンローダ

画像の有るページのURLを貼っても落ちません、
関係のない画像(CG集など)が保存されています。
なにやら違うファイルに飛ばされてしまうようです。
また画像自体のURLでも同じくだめです。
毎回ttps://e-hentai.org/z/0331/?p=0という所に必ずアクセスするようです。


5354 名前:名無し 2017年06月11日 10:47:00

親記事:chan.sankakucomplexダウンローダ

ただの要望なのですがlog.txtに画像のURLを記録してくれる機能はアクセスして画像データを取得しなければ出来ないでしょうか?
基本的にlogから一括保存する方で使用させて頂いてるのですが、その場合log.txtにURLさえ記録できれば画像のキャッシュを溜める行程は正直不要になるので省けたらなぁと思った次第です

ついでに>>31氏と同様ですがWin7 Ver1.19 ログイン状態で
「Error: 50ページ以上はこの方法で閲覧出来ません」
と出てしまうのでこちらも可能なら対処をお願いします


最初 戻る 最後 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
戻る