Двач, помоги мне. Нужна программа, которая может автоматически скачивать из указанного треда все картинки. Приветствуется возможность скачивать все картинки по ссылкам с определенной страницы и по ссылкам куда ведут первоначальные ссылки, TeleportPro не предлагать (либо разьяснить что я делаю не так и как надо). Необходимо скачивать картинки с таких ресурсов как например onemanga.com.
Link Gopher + wget
#! /bin/shif [ $# -lt 1 ] || [ -z expr $1 : "\(http://[^/][^/]*/[^/][^/]*/res/[0-9][0-9]*.*ml\)" ]then echo "Usage: sohranyach.sh [URL]"; exit; fichan_section=expr $1 : "http://[^/]*/\(.*\)/res/"chan_section_url=$(expr $1 : "\(.*\)/res/" | sed "s|\/|\\\/|g")fnm=expr $1 : ".*/\([^/]*\)"if [ -f $fnm ] && [ du $fnm | cut -f1 -ge 10 ]; then rm -f $fnm.bak; mv $fnm $fnm.bak; fiwget -r -l1 -nd -N -k -p -e robots=off -I/src,/$chan_section/src,/thumb,/$chan_section/thumb,/js,/lib/javascript,/css $1sed -i "s/$chan_section_url\/src\///g" $fnm; sed -i "s/$chan_section_url\/thumb\///g" $fnmchan_section=chan_section_url=fnm=
expr $1 : "\(http://[^/][^/]*/[^/][^/]*/res/[0-9][0-9]*.*ml\)"
expr $1 : "http://[^/]*/\(.*\)/res/"
expr $1 : ".*/\([^/]*\)"
du $fnm | cut -f1
DownThemAllОПЕРОБЛЯДКИ как всегда, глотнули спермеца.
>>4139Соус ОП-картинки?
>>4169двачую
>>4167Здесь вместо расово неверного `` надо использовать $(), чобы вакаба не путалась.
>>4189 Спасибо за пояснение, я взял этот скрипт с боброчана, и в написании не особо разбираюсь.Ты имел ввиду:[ -z expr $1 : "\(http://[^/][^/]*/[^/][^/]*/res/[0-9][0-9]*.*ml\)" ]На:[ -z $(expr $1 : "\(http://[^/][^/]*/[^/][^/]*/res/[0-9][0-9]*.*ml\)") ] ?
>>4231Таки да.
Правильно?http://slexy.org/view/s20fEkZQqI
>>4184"Manhole"Ничего выдающегося, но пара картинок доставили.
http://slexy.org/view/s20IgSpZooкавычки таки выглядят посимпатичнейи на 5 символов меньше получается
Спасибо, это тебе, сам я в скриптах почти ничего не смыслю:3
чуть измененный вариантhttp://slexy.org/view/s2NrSsw0cyвообще, на дватирече (и не только) есть скрипты и иконки, которые лежат прямо в /$chan_section, однако ж если этот путь включить в параметры, вгет будет скачивать вместе с тредом и сам http://2-ch.ru/s/
>>4246
>>4167 FFFFFFUUUUUUUU ! К чему столько мусора ? Вполне достаточно этого: elinks -no-numbering -dump http://YOUR_URL|egrep -oi "http://.+(jpg|png|gif)"|sort|uniq| wget -ci /dev/stdin
>>4255Ты вообще это тестировал? Твой регексп жадный, а вакаба однострочная, он захавает всё от первой ссылки до последнего жпега.
- wakaba 3.0.8 + futaba + futallaby -