Первое с чего нужно начать, это определить для себя, что именно ты ищешь. А это уже зависит от выбраной тобой ниши. На своих курсах я всегда говорю, что никаких схем заработка давать не буду. Причина ясна, если я даю схему, то я отвечаю за ее работоспособность и, что еще хуже, я отбираю у тебя возможность выбора. Со своей стороны я даю тебе знания, а твоя задача уже выбрать как на этом заработать. Ну и плюс "счастье любит тишину" и ни одна схема не выдержит конкуренции, если толпа народу начнет выполнять четко расписанные шаги.
Поиск жерт бывает разный. Все зависит от конкретной ситуации. Например, можно искать жертв под эксплуатацию SQLi просто составив дорку. Или например взять тор Alex`ы и сканировать эти сайты на все что можно. Т.е. если ты ищешь сайты под конкретную известную уязвимость, то лучше искать доркой. Еще в сети можно нарыть базы доменов и сканировать их.
Сейчас буду говорить про поиск по доркам. При таком подходе у тебя должна быть на руках уязвимость и желательно сайт подверженный этой уязвимости. Это нужно для составления шаблона. Так например если составлять дорку под SQLi, то нужно понимать, что нам нужны сайты на php или asp, например, принимающие параметры в GET. Т.е. дорка может быть такой:
Или для интернет магазинов часто встречается product_id
Да и никто не мешает указать так
Вариации могут быть разными, все зависит от воображения и результаты тоже будут разными. Или например тебе нужны сайты под уязвимость drupalgeddon2, ты узнаешь идентификатор уязвимости, в данном случае CVE-2018-7600, и ищешь описание уязвимости по идентификатору. Узнаешь, что этой уязвимости подвержены следующие версии Drupal < 7.58 / 8.x < 8.3.9 / 8.4.x < 8.4.6 / 8.5.x < 8.5.1. Потом переходишь к изучению самого движка, ставишь себе дырявую версию и пробуешь проэксплуатировать уязвимость. Ну тут два варианта: искать сплоиты и пробовать и досконально изучить отчет и написать сплоит самому. Если все прошло удачно и у тебя есть сплоит пора писать дорку на поиск нужных тебе сайтов. Ты наверняка заметишь в папке с установленным друпалом файл CHANGELOG.txt в котором будет хранится информация о версии и без труда составишь примерно такую дорку
Все это конечно замечательно, вот только радость утекает со скоростью прямо пропорциональной количеству прочеканных сайтов, так как нужно руками каждый открыть и отправить сайт в сплоит. Или в случае с SQLi пихнуть ковычку куда только можно или тоже отправить в сплоит. А секрет успеха, и как следствие счастья, как всегда в автоматизации рутинных задачь. Если говорить про 7600, то автоматизировать поиск по дорке, например, придется самому, а для этого нужно уметь кодить. Кстати рекомендую научиться, идеально подойдет пайтон.
Atscan
Отличная утилита для автоматизации поиска уязвимых к SQLi, LFI сайтов по доркам. После клонирования с гита, не захотел запускаться через "./", поэтому можно запустит
А как я узнал что это perl скрипт? Ну есть описание "Portable Execution: perl ./atscan.pl" - это раз, расширение файла "atscan.pl" говорит, что это перл - это два и первая строка в файле "atscan.pl" "#!/usr/bin/perl" - это три.
Очень информативный Help, что на сайте гитхаба, что в самом скрипте. Есть вот интересный параметр --command, который при успешном детекте может запустить внешнюю команду. Например
Такая команда найдет сайты по дорке в гугле, соберет 20 резльутатов, проверит на sql и если проверка даст результат, то запустит sqlmap. Каша в терминале обеспечена :-). Можно сделать по другому, собрать все потенциально уязвимые ссылки в файл и запустить уже отдельно мап, что мне кажется будет лучше.
V3n0M-Scanner
Новый, для меня сканер, пока что не могу сказать ни за ни против. Фишка сканера в большом кол-ве встроенных дорок больше 14к. Ищет только по bing, по крайней мере других поисковых движков я в исходниках не нашел. Поиск IP сайта за клаудом, сканер диапазонов IP и еще там немного. Я буду смотреть его еще в деле и внесу исправление в эту часть статьи. О том как запустить, к сожалению разработчик за год не удосужился написать документацию по софту, так что все методом научного тыка.
После установки зависимостей (это есть на странице гитхаба), запускаем:
Появляется меню, теперь уже можно выбирать из списка что надо и пускать его в работу. Ну например выбираешь пункт 1, дальше указываешь маску сайта, можно поставить *, потом спросит какое кол-во рандомных дорок взять, можно указать 5-10-15, можно взять все, вот только стоит учесть, что ты запускаешь для себя, а не для правнуков, потом выбираешь кол-во потоков, там интервал от 50 до 500, потом кол-во результатов от 20 до 100 с инкрементом в 25, там написано все и ждешь. Как закончит жмешь 1 и смотришь, что получится. У меня не получилось нихрена! В догонку он еще и на ютубе скулю нашел :-) Зато нашел IP одного сайта за клаудом, поэтому я и решил все таки упомянуть о нем, пусть и в лекции посвященной поиску.
Zeus-Scanner
Еще один отличный сканер по доркам. Работает через эмуляцию браузера FireFox. В комплекте есть requirements.txt, что упрощает установку зависимостей, кстати работает на python2:
Все должно установиться без ошибок. Дальше все просто
Результаты падают в "log/url-log". Умеет несколько уязвимостей и отправлять на раскрутку в sqlmap. Разберешься, там нет ничего сложного.
А как быть если нужны сайты под тематику? Ну конечно же дорки можно составлять и под тематику сайта. А если есть сайт под нужную тематику то найти подобные можно еще и через ttps://ru.megaindex.com/a/intersection?domain={domain}. Еще часто продают базы доменов, например базы доменов на каких либо движках или под какую либо тематику. Покупать или нет дело твое.
Оцента сайта
Также перед началом работы над сайтом, желательно сразу понять стоит ли сайт потраченного времени и сколько времени он стоит. Первым делом можно прогнать сайт через cy-pr или другой анализоатор, тут нужно обратить внимание на показатели сайта, ТИЦ (для яндекса), PR (для гугла) чем выше тем лучше, а Alexa Rank чем ниже, тем лучше. Еще можно посмотреть трафик сайта через pr-cy, что даст понимание о кл-ве посетителей на сайте. Бывают например сайты без индексации в гугле и яндексе, зато на них по 1к посетителей в сутки с какой то определенной страны. А вообще все зависит от целей, которые перед тобой будут стоять. Т.е. если ты будешь специализироваться на массовом заливи шелов, то смотреть стату тут уже пустая трата времени. Также для анализа сайтов на Alex`у есть плагины для мозилы. Можешь выбрать себе что нибудь, чтобы было удобно.
Еще одним инструментом которым можно воспользоваться для получения дополнительной информации это bing. Этот поисковик может показать тебе все сайты на одном IP, если вбить в поисковую строку такой запрос
т.е. таким образом ты получишь как и потенциальные точки отказа, так и информацию о том, что ты получишь в итоге.