«У солнца один глаз» (с) GPT-3

Если вы еще не знаете что такое GPT-3, то вы пропустили одно из серьезнейших достижений современной информатики.

Всего за несколько лет исследователи искусственного интеллекта из компании OpenAI сумели построить нейросеть, которая пишет статьи (заметки, посты, обзоры) которые весьма сложно отличить от созданных человеком. Достаточно дать ей небольшой текстовый фрагмент для обозначения направления — и она выдает текст, очень похожий на сотни «человеческих» текстов на ту же тему. Собственно, сеть создает свои произведения по ассоциации со своими знаниями — а это гигантский набор упорядоченных текстов (в числе всего, например вся Википедия).

Пока ничего сверхъестественного?

А ведь GPT-3 может не просто создавать тексты.

  • Она отлично копирует стиль по небольшому фрагменту, выдавая почти безупречные копии авторского стиля.
  • Она может писать стихи и сразу генерировать для них гитарные табулатуры.
  • Она позволяет преобразовывать тексты очень любопытным образом — например, превратить разьяренное письмо пользователя в вежливый запрос на техпомощь (и наоборот, разумеется), сохраняя всю смысловую нагрузку. Равным образом можно сделать текст более сухим и академическим, или подлить пустой водицы, растянув его, или создать ощущение что текст писал иностранец.

По прежнему не цепляет?

  • Видимо GPT-3 будет отличным переводчиком с языка на язык, способным сохранить стилистические детали и авторскую манеру изложения (но для этого нужна огромная работа по набору языковой базы, пока система знает в основном английский).
  • Уже сейчас GPT-3 может выполнить элементарные задания по программированию для нескольких языков. Он умеет создавать разметку для сайтов по словесному описанию в свободной форме, например.
  • У непредубежденного человека тексты GPT-3 в большинстве случаев не вызывают даже сомнения в том что их писало разумное существо.

Словом, для программы-прототипа он может чертовски многое. Особенно если вспомнить что тройка в названии это  версия. Год назад была выпущена GPT-2, которая была на два порядка проще GPT-3. Теперь представим себе что будет уметь, скажем, GPT-7. Или GPT-10.

А вот теперь о том чего GPT не умеет и уметь, видимо, не будет.

Это очень ярко видно вот по этому вот тексту — https://habr.com/ru/post/513412/, когда спрашивающий стал задавать очевидно бессмысленные вопросы. Машина принялась отвечать на них другой бессмыслицей (см. заголовок — это был ответ на вопрос сколько у солнца глаз). Конечно авторы могут натренировать нейросеть юлить и давать пустые и уклончивые ответы, но похоже именно здесь ее очевидная слабость — все-таки пространство бессмыслицы шире пространства смысла.

Впрочем, дело не только в прохождении теста Тьюринга, нужно понимать что у GPT-3 нет представления о мире, она оперирует только словами и сложнейшими правилами их расстановки. Интеллект модели, если его так можно называть — абсолютно текстовый, она не умеет рассуждать или делать выводы — только играет словами (но делает это очень хорошо). Но она, собственно, и не предназначена для чего-то иного.


Уже сейчас понятно что GPT-3 и его потомки будут очень полезным инструментом работы с текстами и шире — с человеческим знанием. Они принесут много пользы (и много вреда, как и все остальные человеческие инструменты).

В следующий раз хочу поговорить о настоящем искусственном интеллекте (General AI). Потому что GPT, как не крути — слабый ИИ (narrow AI). У него есть своя прикладная задача, которую он призван решить, и для него не существует ничего что выводило бы его из этой плоскости. Я давно ходил мимо этой темы, не решаясь взяться за нее.