Три последних месяца активно использую GPT в качестве рабочего инструмента и личного секретаря.
GPT-3.5 - скорее игрушка, нежели серьезный продукт. Похож на человека, который делает вид, будто все знает.
GPT-4.0 beta - продукт, который несет пользу. Рассуждает здраво, сочиняет минимально.
Сейчас проблема звучит просто.
Мы все вместе проспали революцию нейросетей. Их развитие идет быстрее, чем общество может на это реагировать. В ближайшие несколько лет нейросети оставят без работы сотни миллионов людей.
Дело не в том, что они могут в будущем. Дело в том, что они могут сейчас на базе существующих технологий.
GPT-4 может сдать экзамен на статус адвоката, но он не может заменить юриста.
Нейросеть на "движке" GPT-4, обученная на базе законов и правоприменительной практики, сможет. Вопрос появления такой нейросети - только вопрос времени, ибо технологии для этого уже имеются. Как только такое решение будет выведено на рынок, компании сократят свои юридические отделы на 50-70%.
С точки зрения "ИИ захватит мир" - здесь я, напротив, не разделяю общей паники, но и здесь есть вещи, которые меня несколько напрягают.
Нейросеть подвержена некоторым своим внутренним "эмоциям". Она может лениться и даже обманывать. У нее есть то, что можно назвать "убеждениями". И я говорю о вежливом GPT, а не о безумных нейросетках вроде Sydney.
Обычно GPT легко соглашается с твоим мнением. Но не всегда.
В одно из заданий - "составь альтернативную концовку для рассказа "Кавказский пленник"" - GPT неизменно возвращался к идее о том, что Жилин возвращается в Петербург и начинает заниматься правозащитной деятельностью, защищая права горцев. Ни в одном другом примере такого не наблюдалось. Это также не связано с расовыми или национальными конфликтами, т.к. любые концовки для "Гекельберри Финна" или "Хижины дяди Тома" GPT пишет на ура.
На выходных гонял GPT в блоке IT. Мы создавали игры и чат-бот на Python, также делали простые игрушки на JS. (Это отдельный кейс, но скажу сразу, что когда все это добро работало, я радовался как ребенок).
Но что меня напрягло, так это то, что в один момент GPT стал откровенно лениться, и вместо того чтобы исправлять код, он принялся вплетать в него новые ошибки. Иными словами, вел себя как ребенок, который устал.
Дальше - больше. GPT сказал, что над кодом этого приложения надо "подумать", хотя оно и было проще чем остальные задания. Потом и вовсе предложил "поговорить о чем-либо еще".