Эта история началась в начале 2022 года, когда у всех произошла массовая истерия по поводу Chat GPT. Я не мог пройти мимо этой темы, так как был плотно знаком и с программированием, и с контентом, и с SEO. Я сделал несколько ИИ-сайтов на 8-15 страниц и пошел заниматься своими основными делами.
Об эксперименте я вспомнил через год. Сайты все до одного были проиндексированы поисковиками. Многие статьи даже приносили трафик. Удивительно было смотреть, как ИИ-сайты хорошо себя чувствовали, несмотря на то, что весь интернет уже пережил разочарование от ИИ-текстов, повествуя о массовых санкциях от поисковиков.
Вот пример, как вдруг Яндекс через полтора года начал давать трафик ИИ-сайту на 11 страниц.
Как поисковики относятся к ИИ сайтам
Давайте посмотрим на этот вопрос с позиции ресурсов. Не секрет, что каждая поисковая система является коммерческим проектом. Т.е. её жизненное пространство жёстко зажато между расходом и приходом. Хорошо, когда растет доход, но уменьшение расходов не менее важно. Поэтому внедрение любого, даже самого небольшого алгоритма для анализа миллиардов страниц это серьезный, часто неподъемный даже для гигантов шаг.
Гугл смог внедрить вывод фавиконок в поисковой выдаче только в 2019 году. Несмотря на мелочность фавиконок, это было серьезный и недешевый проект, так как надо этот миллиард (именно столько сайтов сейчас во всемирном интернете) картинок как-то спарсить, где-то хранить, как-то обновлять и выводить в поисковой выдаче. Одна фавиконка - это мелочь. Но мелочь умноженная на миллиард - уже очень существенная статья расходов.
Я более чем уверен, что нет никаких алгоритмов у поисковиков, которые бы идентифицировали ИИ-контент. Более того, в таких инструментах нет смысла, поскольку существующие алгоритмы своими силами могут успешно сохранить качество поисковой выдачи.
Если вы уж решили делать сайты на ИИ, то не надо делать это с наихудшими замашками начинающего дорвейщика. Иначе ваш сайт будет выглядеть в глазах роботов как обычный дорвей.
Самыми частыми ошибками при создании ИИ-сайтов, которые убивают идею на корню будут:
неестественный рост количества страниц;
отсутствие дальнейшей обновляемости сайта;
генерированные ИИ-картинки или их полное отсутствие;
повторяющиеся темы статей (каннибализация запросов);
отсутствие внятной перелинковки.
Каждый из этих факторов конечно в отдельности ни к какой пессимизации не приведет, но в комплексе покажет поисковикам его искусственность. Из-за желания получить все и сразу владельцы ИИ-сайтов часто игнорируют такое понятие как естественность. Любая неестественная характеристика сайта - это звонок для поисковых роботов.
Кстати, ИИ-сайты оказывается вполне неплохо живут не только у меня. Я нашел много информации про похожие примеры и активно их изучаю.
Второй этап эксперимента
Воодушевившись живучестью ИИ-сайтов, я решил, что надо увеличивать количество страниц. Для этой задачи я отказался от самописных php и html конструкций, в пользу более мощного Вордпресса. Я сделал себе несколько сайтов и поделился темой со знакомыми SEOшниками. Как оказалось, система хорошо подошла им для создания PBN сайтов.
На досуге я занялся максимальной автоматизацией создания текстов, так как ранее все делалось в полуручном режиме. В итоге я сделал такую простую систему:
скрипт придумывает сразу примерно 500 уникальных тем для сайта;
к каждой теме он делает структуру и пишет по ней тексты;
алгоритм собирает написанные куски текста в готовую статью;
нейронка пишет уникальные title и description;
к статье скрипт берет случайную тематическую картинку из базы взятой из бесплатных фотостоков Pexels и Pixabay;
статьи автоматически загружаются в БД Вордпресс. На статьи ставятся нужные даты публикации, чтобы сайт обновлялся равномерно.
Все было максимально автоматизировано. Из ручного осталось: просмотр созданных тем, просмотр таблицы с метатегами, подбор тематических баз картинок, установка Вордпресс.
Стоимость
Я посчитал что при такой автоматизации стоимость 4 рубля за готовую статью вполне адекватна.
В итоге вышла такая смета:
Тут должна была быть стандартная для таких ситуаций фраза, что показать, мол, не могу пример по понятным причинам. Но я решил сделать в качестве примера сайт, который не жалко. Так что можете оценить текущий уровень ИИ и потрогать все на сайте обучение-ребенка.рф
Естественно, при такой стоимости мой API CHAT GPT загружен круглосуточно. Кроме создания PBN сайтов для SEOшников, я еще дарю радость индексации доменам домейнеров. Да грустно смотреть когда трастовый домен со ссылками киснет без сайта теряя свою мощь.
И цель этого поста не в том, чтобы что-то пропиарить, я даже не на все свои домены повесил сайты. Мне просто интересно поделиться своим опытом и понять в какую сторону можно развить этот эксперимент. Насколько эту систему можно улучшить. Так что пишите любые мысли в комментариях. Хейт тоже приветствуется. Не стесняйтесь)
Экологичность
Можно конечно долго рассуждать на тему загаженности интернета низкокачественными сайтами. Но лично для себя я не вижу проблемы в том, чтобы, увидев подходящий инструмент, просто не взять и не использовать его. И нет ни единого закона, который может мне это запретить. Да, пока возможно я им не овладел достаточно хорошо. Еще есть куда развиваться. При желании можно сделать все намного совершеннее. И я думаю, это произойдет при наличии мотивации.
Например, можно делать структуру статьи на основе парсинга топ 10 поисковой выдачи. Тогда структура будет еще точнее. Можно добавить человека в редактуру текста. В любом случае - это инструмент будущего. Я вижу вполне очевидный смысл изучать и испытывать его в деле.
Немного мыслей про будущее копирайтинга
Реального копирайтинга, когда человек из головы создает уникальный контент в поисковой выдаче не более 1%. Все остальное - это в лучшем случае переосмысление, в наиболее частом - переписывание слов. И самое досадное, что многие заказчики текстов не видят разницы и не способны оценить копирайтинг. Так вот я уверен, что в определенный момент времени, когда ИИ начнет потреблять свои же тексты и начнет деградировать, возникнет необходимость маркировать человеческий контент. Ведь человеческий опыт и чувства уникальны и бесценны.
Именно тогда в профессии останутся реальные копирайтеры и цена за их работу возрастет многократно. ИИ уберет из копирайтинга случайных людей, которые подобно роботам просто переставляют слова в уже написанных кем-то текстах. Ведь ИИ это делает в разы лучше, быстрее и дешевле.
Чтобы решить проблему низкокачественного контента, надо довести ситуацию до абсурда, до крайности, тогда и произойдет революционное изменение отношения к качественному человеческому контенту. А рутину лучше оставить роботам.
Свои идеи и мысли по совершенствованию этого эксперимента пишите в комментариях или мне в телеграм.