“Любой дурак может знать. Смысл в понимании”. Альберт Эйнштейн
Никогда еще не начинал пост с цитаты, но это изречение как никогда лучше подходит для описания текущей ситуации с так называемым искусственным интеллектом (ИИ) и хайпом вокруг него.
Действительно, большие языковые модели (LLM) вроде GPT стали удивительно эффективны в поиске объясняющих ответов на запросы самого широкого профиля, от хронологической последовательности исторических событий до нахождения бага в компьютерном коде.
Ну еще бы было иначе с системой (моделью GPT от OpenAI), натренированной на всей мудрости Интернета, да еще и с Github в придачу. Хотя, по правде, даже с выполнением таких простых задач подобные модели грешат неточностью, поднимая красный флаг возможного наступления эры деинформации уже в ближайшем будущем…
Но это только полбеды. Встает снова и снова тот же самый фундаментальный вопрос — настоящий ли ИИ это? Если копать глубже, к сожалению оказывается, что до ИИ в правильном смысле нам еще далеко. И чтобы сразу избежать возможных недопониманий, приведу определение ИИ, взятое от Google:
“ИИ — это область науки, занимающаяся созданием компьютеров и машин, которые способны рассуждать, обучаться и действовать таким образом, что для этого обычно требуется человеческий интеллект или данные, масштаб анализа которых превышает возможности человека.”
Как Вы понимаете, машинам выйти хотя бы на приближенный к человеку когнитивный уровень, увы или к счастью, пока что не удалось. Да, модели сегодня выдают правдоподобно выглядящий текст, только вот при даже первом вчитывании в глаза сразу бросаются изъяны логики, помноженные на фактологические неточности. Это не совсем то, что мы ожидали с автономно мыслящими компьютерами, проявляющими зачатки сознания и эмоций.
Для достижения всеми так желанного уровня общего ИИ (AGI или artificial general intelligence), близкого по интеллектуальным способностям к человеку, модели должны ПОНИМАТЬ общий контекст, опираясь на системное представление мира, а не просто предсказывать вероятность следующего слова из огромных компиляций доступных данных.
Все же сейчас итерации с тем же chatGPT напоминают общение с очень умным подростком, нахватавшимся из книг энциклопедических знаний. Только вот грамотно скомпоновать их в единую картину он не может, поскольку для этого нужен житейский опыт и накопленная годами мудрость, свойственные человеку. Видимо, эволюционные ступени даже машины не могут перепрыгнуть.
Считаю, что нужно быть максимально объективными и честными сами с собой. На данный момент недоИИ представляет собой скорее набор сложных статистически-математических методик и алгоритмов по работе с большими данными под решение конкретных задач, задаваемых человеком. Ни больше, ни меньше. И это абсолютно нормально, все таки работа ведется над направлением ИИ каких-то 50-60 лет. Ничто по историческим меркам. Мы только в самом начале, когда обретается форма.
Не поймите неправильно, я ни в коем разе не пытаюсь обесценить труды десятков тысяч ученых и практиков из индустрии ИИ в нескольких поколениях. Ни в коем случае! Напротив, я считаю, что их работа невероятно важна для нашего общества и прогресса человечества. А сам ИИ, к которому мы мчимся, является величайшей технологией текущего века, способная фундаментально изменить социально-экономический уклад нашей жизни и запустить новый виток настоящего качественного роста.
Автоматизация рутинных задач, которые мы можем передать на аутсорс умной машине, вот наше все. Главное, чтобы нас не подвел такой подрядчик в самый неподходящий момент, оказавшись Троянским конем, угрожающим, не дай Бог, существованию всего человеческого рода.
Такой риск далеко не нулевой, и светила ИИ индустрии как Гари Маркус и Макс Тегмарк (советую следить за этими господами в Твиттере), так и более известные персоны вроде Илона Маска это прекрасно понимают. 29 марта они даже подписали совместную петицию о временной приостановке любых дальнейших апгрейдов больших моделей вроде GPT-4 как минимум на 6 месяцев, опасаясь за безопасность нашего будущего. Как бы не нарубили дров со своими играми в ИИ.
Возвращаясь к моему поинту про подмену понятий ИИ. Проблема, как я ее вижу, кроется в повсеместном и некомпетентном СМИ, которое настолько опорочило и исказило понятие ИИ, что этим ярлыком называют сегодня буквально все что попало. Любое маломальское новшество уже принимают в СМИ за революцию межгалактического масштаба и приход настоящего самодостаточного ИИ, порождая миф на мифе (и мифом погоняя) в хрупком общественном сознании.
Их мотивация предельно понятна, повысить читаемость любыми кликбейтными способами, только вот что там в сущности от ИИ в остатке?
Ниже попытаюсь более полно раскрыть свой тезис, почему “ИИ” все еще не достиг уровня интеллекта по образу и подобию человека, заготовив череду аргументированных ударов. Но прежде предлагаю кратко посмотреть на успехи ИИ, которые мы пожинаем уже сегодня.
Доска почета ИИ
Прогресс в индустрии умных машин за последние 20 лет отвергать было бы глупо, даже не пытаюсь. Гордиться действительно есть чем:
Рассвет машинного обучения (ML) — появились усовершенствованные и более эффективные статистические подходы по работе с большими данными как ML и DL (deep learning), помогающие не просто находить скрытые корреляционные закономерности и похожие паттерны, но и более точно предсказывать неочевидные сценарии.
Вершиной пока что выступает DL, пытающийся скопировать сложную архитектуру человеческого мозга с многомиллиардными нейронными и параллельными соединениями, применяя методы обучающих оптимизаций и самоулучшающихся алгоритмов.
Возможно, не все догадываются, но ML/DL уже плотно вошли в нашу жизнь и сопутствуют нам буквально на каждом шагу, от лент социальных сетей до GPS систем.
Конечно же, без экспоненциального рост данных вкупе с более доступным и мощным железом (GPU) такого впечатляющего прогресса моделей просто не было бы. Все таки данные для таких моделей — топливо, а компьютерные мощности — скоростные рельсы.
2. Демократизация ИИ инструментов — для построения моделей теперь не обязательно принадлежать к привилегированному кругу бигтех компаний, ведь в открытом доступе находятся целые готовые фреймворки и библиотеки данных от ведущих ИИ команд вроде Google и Facebook — TensorFlow, PyTorch, Keras…, что невероятно упрощает исследовательско-практический опыт строительства и работы с моделями. Бери и пользуйся на здоровье.
3. Успешные бизнес кейсы — волна практической пользы ИИ дошла и до нас, широкой аудитории конечных пользователей. От прорывов в обработке естественного языка с помощью голосовых помощников (Siri, Alexa), чатботов (chatGPT) и сервисов по переводу (DeepL) до достижения впечатляющего уровня компьютерного зрения, использующегося сегодня в различных направлениях — автономные автомобили (Tesla), дроны (Skydio), медицина (PathAI, Paige), промышленные (Amazon) и даже человекоподобные роботы (Boston Dynamics).
4. Поток инвестиций — миллиарды финансирования с неубывающей силой текут в индустрию ИИ со всех сторон особенно сегодня, когда очевидна практическая польза применения технологий по автоматизации операционных процессов, рассматриваемых уже в качестве необходимого условия для выживания бизнеса. Объем только венчурных инвестиций в 2022 году в ИИ составил внушительные 55млрд$, что эквивалентно почти 23% от всех по итогам года (240млрд$). А сколько еще пришло со стороны государств и внутренних закромов крупных корпораций…Страшно даже вообразить. ИИ стал бесспорно самым горячим сектором на рынке.
Значительные пробелы ИИ
Но несмотря на заметные достижения и живой интерес к индустрии, говорить о настоящем ИИ все же рановато и вот мои 7 аргументов ПОЧЕМУ.
Науке неизвестен человеческий мозг. И на этом в принципе можно было заканчивать любую дискуссию на счет ИИ. Как можно повторить на машине то, что еще не до конца понятно, как работает? Вполне возможно, что реплицировать изощренную структуру со сложными и многоуровневыми нейронными связями мозга никогда и не получится. Нейробиологи до сих пор не могут дать однозначное объяснение многих феноменов мозга, как сознание и сохранение памяти, определить спектр когнитивных способностей, как происходит связь с иммунной или эндокринной системами…
Мозг невероятно захватывающая и комплексная штука. Благодаря 86 млрд+ нейронам, каждый из которых по своей мощи схож с тысячами транзисторов, и еще на порядок большему количеству синапсов (связи между нейронами) мозг способен одновременно обрабатывать информацию из как минимум 5 каналов восприятия — зрительный (текст и картинки), слуховой (аудио), тактильный, вкусовой, обонятельный (запах). Нереально энергоэффективное и гибкое устройство, которым нас наградила природа и эволюция. Остается только надеяться на прогресс науки, который приблизит нас к разгадке всех тайн мозга. ChatGPT пока что и рядом не стоял с этим зверем.
2. Современные модели требуют вовлеченности человека — причем постоянного включения на всех этапах работы с такими LLM, от этапа очистки данных и их тщательной маркировки до ручной настройки нейронных моделей исследователями и дополнительного фидбека привлеченных инструкторов. Без человека здесь никуда, все же гарантия исправности и безопасности работы приоритетна. Тем более в условиях, когда модели все еще не понимают общего широко контекста реального мира, выдавая порой откровенно непристойные и опасные вещи в качестве ответов. Кто-то должен позаботиться о пользователе, и этот кто-то — разработчик (человек), ответственный за мониторинг процессов и исправление возможных ошибок. Пока что о полностью независимой работе ИИ систем говорить не приходится.
3. Не ИИ, а продвинутая статистика — те же ML/DL в своей основе опираются на статистические методы и алгоритмы для анализа и обучения на больших пластах данных, в определенной степени имитируя образовательный процесс человеческого мозга. Все достаточно прозаично. Сначала устанавливаются закономерности и степени корреляций между различными переменными, а после происходит постепенная работа по корректировке и приоритезации связей. Модель GPT один из самых ярких примеров использования новых техник вроде трансформера, который при обработке запросов пользователей помогает синтезировать уже написанные ранее человеком тексты (данные) в Интернете, статистически подбирая наиболее вероятный по смыслу скомпонованный вариант. Магии здесь никакой нет, лишь сухой математический расчет, подкрепленный океаном данных.
4. Зависимость от больших данных — ИИ системы не могут протянуть без данных так же, как рыба без воды. Иначе бы они были бессмысленны. Реальность такова, что моделям нужно очень много данных именно для обучения и построения предсказательных проекций, о чем мы говорили выше. Причем чем их больше, тем и выше точность конечного ответа, а соответственно и ценность таких моделей. Однако несмотря на экспоненциальный рост данных за последние десятилетия под влиянием развития Интернета и цифровизации, качественных или же маркированных данных с четкой разметкой все еще недостаточно. Такие сырые данные еще нужно обработать, определив кошка или же собака изображена на картинке, чтобы компьютер смог считать в первую очередь такие неструктурированные данные (около 90% от всех данных) в доступном для себя формате.
5. Предвзятость моделей — от этого сегодня никуда не деться, ведь модели обучаются в том числе благодаря обратной связи реальных людей, как мы с Вами, имеющих свои персональные наклонности и предубеждения. Как бы строго не следовали инструкциям разработчиков такие “учителя”, оценивающие ответы модели, их мнение рано или поздно проявится. Особенно на больших объемах, и практика это доказывает лучше всего. ChatGPT уже стал одной из жертв, выдавая ответы с очевидным уклоном в поддержку левацких политических взглядов Демократической партии США. Любые проявления навязывания своего мнения крайне опасны, ведь могут не просто искажать информацию, но и выступать инструментом манипуляции общественным сознанием. Что так же далеко от понятия автономного ИИ.
6. Ненадежность моделей — как бы ни удивляли аудиторию разработчики на демо показах и избранными твитами успехов модели в “полях”, нерешенной остается проблема устойчивости результатов. Нами излюбленный GPT, как и PaLM (Google) и LLaMA (Meta), все без исключения грешат генерацией недостоверных или же вообще несуществующих данных, в добавок окунаясь в галлюцинации и начиная странно себя вести с пользователями. И это происходит даже на относительно поверхностно-безобидном уровне вопросов. А как можно вообще тогда полагаться на подобные модели, не говоря уже о доверии им своего здоровья, если с большой вероятностью (по моим ощущением около 30-40%) машина выдаст ложный или вредоносный ответ? Да, модель ВОЗМОЖНО определит диагноз по характерным симптомам общего типа, но только вот персонализированное и самое главное БЕЗОПАСНОЕ лечение под вопросом…Думаю, что риск того не стоит.
Модели могут вполне хорошо справляться с распознанием картинок, поиском определенной информации или переводом языка, но когда дело доходит до более сложных задач, требующих нетривиального подхода, нахваленный ИИ теряется как ежик в тумане.
Бесперебойного перформанса на высоком уровне еще нету и в помине. И что самое интересное, сами создатели не знают и не могут объяснить, почему их модели иногда работают, а в другие моменты (самые неподходящие) дают сбой. За чисто сердечное Сэму Альтману (со-основателю и CEO OpenAI) респект, но только зачем было скрывать от общественности всю модель с механикой и архитектурой, превратив ее в ящик Пандоры, непонятно. Что там скрывать и от кого?
7. Отсутствие полной картины мира — напичканные кучей данных модели могут выдавать достаточно хорошего уровня ответы на конкретные запросы, но вот только, к сожалению, не понимая полного контекста окружающего мира. И это неудивительно, ведь модели, страдая от обрывчатости познаний нашего с Вами мира, не обладают предыдущим жизненным опытом и лишены возможности критического мышления, особенно в нестандартных условиях. В этом смысле чрезмерно восхищаться прохождению моделью тестов типа GMAT или интервью в бигтехе не стоит, все таки пул вопросов известен заранее.
Такие LLM модели работают по принципу краткосрочной памяти в рамках одного диалога. После инициации нового запроса память о предыдущем разговоре как будто стирается. Очень напоминает фильм Кристофера Нолана “Мементо”, главный герой которого испытывал постоянные проблемы с памятью. После каждой “перезагрузки” он даже не мог вспомнить своего имени, не говоря уже о происходящем вокруг. Хоть как то выручали записи на теле и фотокарточка. У моделей нету даже этого…
ВЫВОДЫ
Настоящего ИИ все еще нет, но развитие индустрии идет полным ходом. Пока не будет подвижек в науке о мозге, надеяться на автономный ИИ не стоит;
На данный момент ИИ представляет собой комплекс сложных статистических методов и математических алгоритмов по работе с большими данными, реализуемый с помощью ML/DL (машинное и глубокое обучение) для решения конкретных задач, задаваемых человеком. СМИ раздувает ложную интерпретацию в умах общества;
Одним из главных ограничивающих факторов дальнейшего развития технологии выступает отсутствие бОльшего количества качественных (маркированных) данных, что могло бы повысить точность выдаваемых ответов подобных систем;
Возможные риски использования технологии в текущей форме небеспочвенны и могут перевешивать приносимую пользователю пользу, поэтому необходимо вести работу над созданием более безопасного и ответственного ИИ с привлечением к открытому диалогу всех участников индустрии;
Приоритетное направление для улучшения технологии сегодня — развитие передовых и доступных широкому кругу лиц инструментов и универсальных инфраструктурных решений по работе с данными на основе открытого исходного кода. Необходимо учитывать полный цикл взаимодействия с данными, подготавливая благоприятную почву для повышения эффективности нейронных моделей и приближения к ИИ.
На этом у меня все для Вас на сегодня. Спасибо огромное, что читаете и все еще с нами! Надеюсь, было полезно. Следить за выходом новых материалов приглашаю в тг канал Венчурная Прожарка. Подписывайтесь и делитесь с друзьями, а пока что до скорого!