|
|
Регистрация Восстановить пароль |
Повторная активизация e-mail |
Регистрация | Задать вопрос |
Заплачу за решение |
Новые сообщения |
Сообщения за день |
Расширенный поиск |
Правила |
Всё прочитано |
|
|
Опции темы | Поиск в этой теме |
06.05.2011, 18:16 | #1 |
Пользователь
Регистрация: 06.05.2011
Сообщений: 11
|
Защита от баннерной накрутки
Добрый день.
Заголовок не совсем точен. У нас скоро выходит новостной портал (работает на Битриксе редакции "эксперт"), на котором пользователи могут не только оставлять свои статьи и новости, но и зарабатывать на них. Пользователь получает премию за просмотр его статьи. При чём он получает премию не за уникальных пользователей, а за хиты. То есть если один пользователь посмотрит статью, уйдёт на чужую, а потом снова к ней вернётся, то автор статьи получает уже 2 просмотра. Соответственно возникает вопрос: как уберечься от накрутки этих показов каким-то роботом? То есть я даже не против, если автор сам накрутит. Вопрос именно в том, что нужно уберечься от ботов. Возможно ли сделать такое? Если к каждому зарегистрированному пользователю (а деньги он получает только за зарегистрированных пользователей) привязывать при каждом переходе по ссылке новый ID? То есть сделал человек переход, а к его URL'у прибавился один номер, перешёл дальше по ссылке - номер изменился. Таким образом мы сможем исключить накрутку роботами, потому как этот номер просто так угадать нельзя. Если это возможно без слишком большой нагрузки на сервер, то можно ли этот ID сделать не в URL'е, а где-то ещё. Просто что бы битрикс сам как-то это определял. Очень буду рад ответу. Напишите, если что-то не понятно))) |
07.05.2011, 09:14 | #2 |
взагрузке.рф
Форумчанин
Регистрация: 13.06.2010
Сообщений: 117
|
Можно сделать, чтобы одиному пользователю засчитывался только один просмотр, а не 10 раз он зайдет и получит деньги.
Для это в БД (MySQL) нужно записывать id пользователя и id статьи. При просмотре статьи проверять, есть ли значение в БД, если нет то записать туда просмотр и добавить денег.
Взагрузке.рф - Файлы для людей
Ищу художника или веб-дизайнера для создания браузерной онлайн игры! icq 340-289-851 |
07.05.2011, 09:31 | #3 |
Пользователь
Регистрация: 06.05.2011
Сообщений: 11
|
Да в том-то и дело, что одному пользователю должны засчитываться все просмотры. Но это реальному пользователю, а не роботу. То есть к каждому переходу, наверно, должен принадлежать уникальный идентификатор сессии, который заново генерируется при каждом новом переходе по ссылке. прошу понять меня правильно, я рассуждаю дилетантским языком, потому что с программированием косвенно связан. Мы заказывали сайт разработчикам и хотелось бы до того, как дать им задание понять, какое именно задание дать. Самому хотелось бы понять. Да и вам, думаю, интересно будет в нестандартном вопросе поковыряться)))
|
08.05.2011, 17:24 | #4 |
Форумчанин
Регистрация: 03.05.2011
Сообщений: 158
|
Никакой ай-ди от ботов не спасает, как показывает практика, можно бороться с ботоводами, но не с ботами.
Всегда можно написать бота, который будет мышкой щёлкать по нужной ссылке, закрывать таб (или браузер), открывать, заходить на главную (или туда, где есть ссылка на статью), щёлкать по ссылке.... Можно, в теории, бороться так: 1. Автоматически генерируемые линки для статей, каждый раз у статьи новый адрес (к примеру, привязанный по времени) на 10 секунд, к примеру. Статический адрес тоже есть, но по нему не генерятся хиты. Сложно, муторно, далеко не всегда эффективно. 2. Засчитать только хиты с одного айпи с разбегом не менее 10-15 секунд и более. 3. Записывать ВЕСЬ список ай-пи, кликавших по статье (особенно для статей с высоким рейтингом) /* ну, или тащить его из access_log вебсервера */ а анализировать его позже, не в реальном времени. 4. Ограничить возможный рейтинг с одного ай-пи/ пользователя (Ну, сколько раз уникалый пользователь уже может туда вернуться ?) 5. Использовать капчу на сверх-активных пользователях, делающих более 10, к примеру, кликов в минуту. Комбинируя вышеперечисленное или его часть, искать ботоводов. Вплоть до того, что бы считать 2 рейтинга - один визуальный, второй - реальный. Автор, понятное дело, лишен возможности видеть второй. Тогда ботоводы будут видеть "эффект накрутки", и не пытаться придумать дополнительные способы обойти защиту. Потом делаем анализ расхождения 2-х рейтингов у статей, настраиваем систему, если есть реальные причины этого расхождения, к примеру - недооценили скорость кликанутости пользователей, спамящий запросами айпи внезапно оказывается хорошим, годным, но единственным внешним айпи школы с 500 компами, треть из которых сидят у вас на сайте и т.д. и т.п. В результате анализа выявляем и караем ботоводов. Пути карания (карки ?!?) уже придумывайте сами |
08.05.2011, 17:59 | #5 |
Пользователь
Регистрация: 06.05.2011
Сообщений: 11
|
Добрый вечер. Спасибо большое. Очень интересно, нужно об этом подумать.
Но я вот давно думаю над похожей мыслью > Всегда можно написать бота, который будет мышкой щёлкать по нужной ссылке... Написать-то можно. Но станет ли нормальный программист, который такое сможет создать, возиться с написанием бота, что бы заработать пару баксов в месяц? Мне кажется это не очень целесообразно. И если такие и будут, то скорее всего единицы, а единицу вычислить не проблема. И сразу вопрос на засыпку: разве можно написать такого бота, который будет ходить по сайту, если ссылки там всё время меняются? К примеру, ссылка на форум будет выглядеть при каждом обновлении страницы то так http://site.ru/forum/?user=111111, то так http://site.ru/forum/?user=222222, то так http://site.ru/forum/?user=333333 и так далее. Разве бот не переходит по каким-то конкретн0-заданным ссылкам? Понравился пункт > Автоматически генерируемые линки для статей, каждый раз у статьи новый адрес Только тут возникает вопрос: а не будет ли это слишком большой нагрузкой на сервер? Рассчитали бюджет и получили, что на сайте у нас будет 5000 пользователей в сутки. Если для каждого каждые 10 секунд генерить новые ссылки, то сервак не повиснет? |
08.05.2011, 18:24 | #6 | ||
Старожил
Регистрация: 31.05.2010
Сообщений: 3,301
|
Цитата:
С точки зрения SEO и лояльности к пользователям и Поисковым системам - это абсолютно тупиковое решение. Вы указали в первом посте, что это будет новостной портал - каким образом тогда вы будете его "раскручивать"..? Или, к примеру, пользователю понравилась статья - он сохранил(отправил другу) ссылку - а толку-то...? По ссылке нет уже ничего - или не то совсем, зато вы всех ботов побороли... Цитата:
|
||
08.05.2011, 18:44 | #7 |
Пользователь
Регистрация: 06.05.2011
Сообщений: 11
|
Ну да, про SEO я как-то совсем забыл. А можно сделать так (чисто теоретически), что бы эти генерируемые ссылки создавались только для зарегистрированных пользователей? То есть есть постоянный адрес страницы, но для зарегистрированных пользователей к урлам добавляется некий номер, тот самый ?user=111111 и другие. Проще говоря, возвращаясь к началу рассказа, прибавляется, как бы его так назвать, "идентификатор просмотра страницы". Если одну страницу постоянно обновлять (к примеру http://site.ru/forum/?user=333333), то просмотры засчитываться не будут, потому что номер не меняется. Для того, что бы новый просмотр засчитался, нужно перейти по одной из ссылок, к которой прибавился новый номер. То есть ко всем ссылкам одновременно прибавляется некий "идентификатор просмотра страницы" после обновления страницы.
А ещё лучше это было бы сделать так, что бы и для пользователя тоже никаких идентификаторов не отображалось. Что бы кроме системы об этих просмотрах никто больше не знал. Тогда и урлы постоянные будут. Что-то я наверное размечтался. Ну а всё таки, такое теоретически возможно сотворить? |
08.05.2011, 19:09 | #8 |
Пользователь
Регистрация: 06.05.2011
Сообщений: 11
|
Ах да,
> Вот уж никогда не думал, что количество посетителей на сайте вот так просто зависит от какого-то "бюджета"... Это бюджет на рекламу. Пока сайт не проиндексится и не поднимется в ПС, мы будем получать трафик только с рекламы. |
08.05.2011, 19:45 | #9 | |
Старожил
Регистрация: 25.02.2007
Сообщений: 4,158
|
чего Вы паритесь?
считайте хиты определенной статьи именно только для зарегистрированных пользователей и только один раз: типа для статьи id=5 есть запись id_user=6 .... все.... сделать так - чтобы перед добавлением такой записи - проверялось ... смотрел ли пользователь уже эту статью... если нет - добавляем... иначе ничего не делаем .... это в разы отсеет ботов, ведь чтоб накручивать - он должен будет зарегистрироваться и будет именно так - Цитата:
|
|
08.05.2011, 19:45 | #10 | |
Старожил
Регистрация: 31.05.2010
Сообщений: 3,301
|
В теории можно реализовать что угодно - главное, чтоб это не доходило до маразма...
Я бы, при определении просмотров статей одним зарегестрированным пользователем, исходил бы из "адекватного предела" - т.е. из того, что врядли нормальный, адекватный человек будет просматривать одну новостную статью, скажем, более 10 раз в сутки (предел может варьироваться). Соответственно - не учитывать более 10 просмотров одним юзером... Тех, кто превысил этот показатель - в "черный список", который впоследствии даст понять, кто из юзеров "страдает фигней"... А вообще - обычно платят за хосты + отношение хосты/хиты. Цитата:
Репутация и всё такое... |
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Программы на заказ Delphi/Builder c++/Visual c++ , для SEO/накрутки просмотров, торговых роботов. | Miller-1981 | Фриланс | 0 | 08.02.2011 23:15 |
защита от накрутки голосования | Dimarik | PHP | 1 | 31.08.2010 17:10 |
Голосование. Защита от накрутки голосов. | Linel | PHP | 5 | 25.01.2010 17:55 |
программа для накрутки еун в игре GanjaWars | халк | JavaScript, Ajax | 11 | 29.11.2009 00:42 |
Защита от накрутки голосование | vitalik007 | PHP | 14 | 25.12.2007 10:05 |