Это к les вопрос. Для моих разовых вылазок такой комбинации достаточно. У меня с доступом полегче :)
Printable View
Это к les вопрос. Для моих разовых вылазок такой комбинации достаточно. У меня с доступом полегче :)
ну, насколько я понял, вы с les делаете одно и то же:
подняв сквид на роутере стоящем в месте А, прописав его в месте Б в виде прокси, ходим в инет, находясь в Б через А.
Тот же результат достижим так:
1) dropbear надеюсь уже стоит и в wan смотрит
2) создаем динамический туннель в putty и открываем соединение
3) прописываем А в виде socks5 прокси и ходим в инет из Б через А
Подробно я этот вопрос разбирал здесь: http://wl500g.info/showthread.php?t=12833
Просто сквид в отличие от дропбира штука уж больно тяжеловесная... imho, конечно.
Ты все верно понял, но я повторюсь - мне это удовольствие нужно раз в сто лет. Поэтому дернуть галку через F12 в Opera мне быстрее для получение нужного результата.
А твою ссылку видел уже и взял на заметку. Как только - так сразу!
al37919, спасибо за инфу. Идея с ssh-тонелем мне понравилось, однако полностью реализовать не удалось. Детали напишу в топике про ssh-тонели, т.к. к squid это отношения не имеет.
Добавлено: В конце-концов разобрался! Спасибо.
Выводы:
Если нужен доступ в инет через коробочку на нестандартном порту (например, обход файрвола сети из котороый вы выходите) то ssh-tunnel удобнее если выход нужен только одному или нескольким людям, но тем кому можно доверить логин на рутер. В любом другом случае лучше использовать squid, так как он позволяет создать отдельный файл с логинами пользователей и не требует никаких дополнительных действий для выхода в инет.
1. как дать доступ к проксе всей своей локальной подсетке (192.168.*) и конкретным ip'шникам из вне...?
2. регулярно вылетает.. - Jun 14 20:14:00 kernel: Out of Memory: Killed process 429 (squid). - как решается...?
3. хотел прикрутить статистику к сквиду... нашол Sarg - Squid Analysis Report Generator , но толком не компилится... может кто собирал уже бинарник и поделится..?
Code:gcc -c -I. -DPACKAGE_NAME=\"\" -DPACKAGE_TARNAME=\"\" -DPACKAGE_VERSION=\"\" -DPACKAGE_STRING=\"\" -DPACKAGE_BUGREPORT=\"\" -DHAVE_DIRENT_H=1 -DSTDC_HEADERS=1 -DHAVE_ICONV=1 -DICONV_CONST= -DHAVE_SYS_TYPES_H=1 -DHAVE_SYS_STAT_H=1 -DHAVE_STDLIB_H=1 -DHAVE_STRING_H=1 -DHAVE_MEMORY_H=1 -DHAVE_STRINGS_H=1 -DHAVE_INTTYPES_H=1 -DHAVE_STDINT_H=1 -DHAVE_UNISTD_H=1 -DHAVE_STDIO_H=1 -DHAVE_STDLIB_H=1 -DHAVE_STRING_H=1 -DHAVE_STRINGS_H=1 -DHAVE_SYS_TIME_H=1 -DHAVE_TIME_H=1 -DHAVE_UNISTD_H=1 -DHAVE_DIRENT_H=1 -DHAVE_SYS_SOCKET_H=1 -DHAVE_NETDB_H=1 -DHAVE_ARPA_INET_H=1 -DHAVE_SYS_TYPES_H=1 -DHAVE_NETINET_IN_H=1 -DHAVE_SYS_STAT_H=1 -DHAVE_CTYPE_H=1 -DHAVE_GD_H=1 -DHAVE_GDFONTL_H=1 -DHAVE_GDFONTT_H=1 -DHAVE_GDFONTS_H=1 -DHAVE_GDFONTMB_H=1 -DHAVE_GDFONTG_H=1 -DHAVE_ICONV_H=1 -DHAVE_ERRNO_H=1 -DHAVE_SYS_RESOURCE_H=1 -DSIZEOF_OFF_T=4 -DOFFSET_STRING=\"%d\" -DHAVE_FOPEN64=1 -g -O2 -w -DBINDIR=\"/opt/bin\" -DSYSCONFDIR=\"/opt/etc/sarg\" -DHTMLDIR=\"/opt/share/www/sarg\" topuser.c
gcc: Internal error: Terminated (program cc1)
Please submit a full bug report.
See <URL:http://gcc.gnu.org/bugs.html> for instructions.
make: *** [topuser.o] Error 1
никто не вкурсе ..? ))
При запуске гоорит:
Строка 40:PHP Code:Starting proxy server: 2008/06/20 18:59:10| squid.conf line 40: acl QUERY urlpath_regex cgi-bin ?
2008/06/20 18:59:10| aclParseRegexList: Invalid regular expression '?': Invalid preceding regular expression
PHP Code:hierarchy_stoplist cgi-bin ?
cache.log :
PHP Code:2008/06/20 18:59:29| WARNING: basicauthenticator #1 (FD 7) exited
2008/06/20 18:59:29| Too few basicauthenticator processes are running
FATAL: The basicauthenticator helpers are crashing too rapidly, need help!
Что ему, блин надо???
Помогите, плиз
Может и мне кто поможет, хочу прикрутить к squid'у веб морду. например lightsquid. научите как настроить веб сервер, чтобы показывалась статистика. или если это будет непосильная нагрузка на коробочку, то может кто знает бесплатный анализатор squid логов под windows.
А есть SquadGuard в репазиториях? Как это пожно посмотреть?
Или кто ставил, поделитесь соображениями, как работает, хватает ли мощности роутера.
Правил немного, около сотни доменов и различных путей, регулярок штук 15... Если есть более легковесные аналоги, тоже посоветуйте ссылкой.
Есть сквид+сквид гуард настроенный, хочу вот на роутер перетащить.
p.s. знаю что можно все рализовать в конфигах самого сквида, но вот только один ньюанс при ошибке 403 - сквид отдает html-страничку, а мне нужно чтобы он отдавал пустой gif-файл - смотрится это куда лучше.
Поковырялся, размышляю вслух... :)
Установил сквид, никаких проблем, настроил, прокси работает. Начал заново осмысливать проблему вырезания рекламы, уточнил кое-какие моменты (сразу замечу что мне сквид нужен только для вырезки баннеров, все логи я отключил, статистика и даже кеш мне тоже не нужны):
- в сквиде, сборки для OpenWRT, кеш не отключается (предполагаю отсутсвует опция при компиляции) поэтому выставил кеш в 1KB.
- Если реализовывать блокирование баннеров средствами самого сквида, то получаем два неприятных момента - все списки блокировок будут грузиться в оперативную память, коей очень и очень мало, и второй момент - возможно выдача только html-странички, а не прозрачного gif-файла, вместо баннеров, который я хотел получить.
- Squidguardа нет в репазиториях, нужно самостоятельно его откомпилировать и установить, кроме самого squidguard также нужно откомпилировать BerkerlyDB. Я пока не смог разобраться, как это дело компилировать в OpenWRT SDK
Поскипев мозгами, решил особо не заморачиваться с компиляцией, и сделать альтернативный вариант - установить скрипт фильтрафии на Perl (хотя процессор perl кушает, мама не горюй!). Монструозный adzapper я сразу отверг, потому как даже на моем компе он вешал процессор, превращая браузинг в пытку :) Попробовал поискать альтернативы попроще, нашел BannerFilter - скрипт для perl в 7 кб без особых наворотов. Поставил Perl (размером 9,7МБ OMG!), потому как microperlа для скрипта было маловато.
Подключил в конфиге редиректор, указал количество потоков редиректа - 2, свалил в одну кучу правила фильтрации (кстати хочу отметить в плюс упрощенную систему правил, регулярные выражения особо не нужны), запустил - работает!
"Подытожим" (c) : все работает, особых тормозов не наблюдаю, однако есть моменты, которые тоже хотелось бы улучшить - а именно - уменьшить размер занимаемой оперативной памяти. Сам squid очень прожорлив - по показниям htop - 12% ~ 3,5 Мб серфинге может вырасти до 14-15% ~ 4-4,5Мб + 2 потока занимают по 7,5% каждый а это по 2 мб на поток + еще один процесс squid c указанием конфигурации - 2,8% - 810КВ. Тоесть идея с вырезанием рекламы обошлась мне в ~8Мб минимум оперативной памяти, что я считаю многовато...
Думаю, что можно попробовать еще два варианта - скомпилировать и установить squidguard либо попробовать поковыряться в mod_redirect для lighttp, вроде он такое позволяет. Посмотрим плюсы-минусы, если что вернусь к текущему варианту.
первое разрули через iptables например
iptables -i vlan1 -s ххх.ххх.ххх.ххх -I INPUT -p tcp --dport 3128 -j ACCEPT разрешаешь внешнему ip вход
iptables -i vlan1 -s 192.168.0.0/16 -I INPUT -p tcp --dport 3128 -j ACCEPT
разрешаешь вход на подсеть ( если подсеть 192,168,1,ххх то маска будет не 16 а 24)
ну а дальше всех остальных с порта скидываешь iptables -i vlan1 -s 0.0.0.0/0 -I INPUT -p tcp --dport 3128 -j DROP
рад если помог :)
в сети 4 компа.. подключены к роутеру Asus, один из подключенных компов Linux Server (ubuntu)
На Asus стоит Squid все ходят в инет через него, поднят SNMP протокол и настроена маршрутизация.. больше на роутере никакие проги не стоят..(чтобы не грузить)
linux server занимается закачками, и сбором статистики по SNMP от роутера Asus. (MRTG)
Возможно ли запустить анализ статистики по сквиду на Linux Server..
И опять к теме redirector'a. :)
Остановился вообщем на варианте Bash скрипта:
+ не нужно устанавливать Perl (+ экономия места например на флешке)
+ очень быстрая работа работа скрипта, браузер (firefox) не подвисает при открытии многих страниц, время отклика уменьшилось, видно невооруженным глазом.
+ расход оперативной памяти меньше - 5 процессов (минимум необходимый для работы браузера, меньше - прокси отказывает в соединении) занимает меньше памяти чем один процесс perl.
+ при изменении/добавлении списка баннеров не нужно перегружать конфигурацию Squid - правила добваляются на лету.
- обратная сторона работы без перегрузки squid - список баннеров прогоняется полностью, впрочем редиректор написан таким образом, чтобы по возможности уменьшить прогон по списку
Установка:
в squid.conf добавить:
Установить grep: ipkg install grep потому как в busybox grep не понимает опцию "-Ff"Code:url_rewrite_program /opt/bannerfilter/redirector.sh
url_rewrite_children 5
создать файл redirector.sh в папке /opt/bannerfilter
chmod +x /opt/bannerfilter/redirector.shCode:#!/bin/sh
while :
do
read url user idt met
[ "`echo "$url" | /opt/bin/grep -Ff /opt/bannerfilter/exceptions`" = "" ] && [ "`echo "$url" | /opt/bin/grep -Ff /opt/bannerfilter/banners`" ] && url="http://192.168.1.1/null.gif";
echo "$url $user $idt $met"
done
в файле /opt/bannerfilter/banners - список заблокированных URL
в файле /opt/bannerfilter/exceptions - список URL-исключений.
Перед запуском squid обязательно проверьте работу редиректора, а это сделать просто - нужно его запустить и кинуть парочку url, вроде такого:
to be continued... :)Code:$ cd /opt/bannerfilter/
$ ./redirector.sh
http://google-analytics.com
http://192.168.1.1/null.gif
http://ya.ru
http://ya.ru
Ctrl+C