Разработан самый опасный искусственный интеллект в мире: что он умеет?

Разработан самый опасный искусственный интеллект в мире: что он умеет?
  • 19.02.19
  • 0
  • 10358
  • фон:

Компания OpenAI, одним из основателей которой является Илон Маск, объявила о создании продвинутого искусственного интеллекта для написания оригинальных текстов на заданную тему. Предполагалось, что он будет переводить тексты на другие языки, отвечать на вопросы и выполнять другие полезные задачи, однако исследование показало, что он может быть крайне опасным и использоваться злоумышленниками для массового обмана людей. В связи с этим, компания решила показать публике только его ограниченную версию, а оригинал хранить под строжайшим секретом.

Компьютерная модель получила название GPT-2 и была обучена на основе 8 миллионов веб-страниц. Написанные на них тексты ложатся на основу новых материалов на заданную человеком тему: например, искусственный интеллект может сочинить целое эссе о положительных сторонах переработки мусора или фентези-рассказ в стиле «Властелина колец». Однако, исследователи также обнаружили, что система отлично справляется с написанием ложных новостей о знаменитостях, катастрофах и даже войнах.

На данный момент полная версия инструмента для генерации текста доступна только разработчикам и некоторым авторам MIT Technology Review. Из-за того, что он может быть использован для неконтролируемого создания фальшивых новостей и публикаций в социальных сетях, его было решено не публиковать в открытом доступе и хранить в секрете.

Примером фальшивой новости поделилось издание ScienceAlert:

Майли Сайрус была поймана за воровство в магазине на Голливудском бульваре

19-летняя певица была снята на камеру, и охранники вывели ее из магазина. На певице был черный балахон с надписью «Blurred Lines» спереди и «Fashion Police» на спине.

Почитать текст небольшого эссе о минусах переработки мусора можно почитать в блоге OpenAI.

Разработчики признают, что языковая модель на данный момент не идеальна: система иногда допускает повтор некоторых фрагментов текста, неестественное переключение тем и сбои моделирования мира. Например, на одном из этапов тестирования система написала про огонь, горящий под водой.

По словам директора по политике Open AI Джека Кларка, спустя пару лет такой алгоритм способен превратиться в опасное оружие массового ввода людей в заблуждение. Некоторые критики уверены, что технология никакой опасности не несет, и компания просто привлекает к себе внимание.

Источник