Последняя версия GPT-3 смогла создать вирусный сериал, но была отправлена на перевоспитание

f17ce5c60e15949193abad652cd57727.jpg

О сложном творческом пути GPT-3 в шоу-бизнесе написал Vice. Полностью созданный искусственным интеллектом сериал Nothing, Forever просуществовал на Twitch около двух месяцев, собрал большую аудиторию и был забанен за нарушение норм морали.

Nothing, Forever — своеобразная интерпретация популярного ситкома 90-х годов прошлого века «Сайнфелд». Его идеологи — Скайлер Харт и Брайан Хаберсбергер, а автор — Davinci, последняя и наиболее мощная версия GPT-3. Шоу шло постоянно, 24 часа в сутки и представляло собой странные диалоги и движения пиксельных персонажей в одной квартире. На старте 14 декабря 2022 года шоу смотрели всего 16 человек, но потом, как формулирует Vice, сериал стал вирусным: тысячи зрителей попали под «сверхъестественное очарование 3D-рендеринга с низким разрешением и четырёх главных героев». Они неловко передвигались, проходили мебель насквозь и не всегда смешно шутили. Канал, на котором транслировали Nothing, Forever, watchmeforever, в итоге собрал около 190 тыс. подписчиков. А организаторы даже успели открыть онлайн-магазин фирменного мерча.

Но шоу пришлось закрыть, когда 5 февраля языковая модель начала вести себя неадекватно. Даже в таком творческом решении, близком скорее к дадаизму, происходящее на экране выглядело как сбой в работе AI: шоу начало разворачиваться вообще без героев. Пытаясь остаться в эфире, организаторы решили переключиться на предшественника Davinci, Curie. Всего через несколько минут после этого один из персонажей разразился развёрнутой тирадой, идущей вразрез с принятыми нормами политкорректности.

6 февраля Nothing, Forever забанили на Twitch на две недели, организаторы шоу отправились совершенствовать творческие навыки Davinci и обратились к аудитории с извинениями: «Мы очень сожалеем о том, что произошло. Замечания и неприемлемый контент никоим образом не отражают точку зрения наших сотрудников. Мы надеемся, что наши новые механизмы безопасности предотвратят подобное в будущем», — заявили они.  

На волне популярности чат-ботов люди преждевременно ожидают от искусственного интеллекта «творчества». Но Скайлер Хартл ещё раз напомнил в другом своём комментарии: «В этих моделях отсутствует способность генерировать что-то, что никогда не было сказано раньше, поэтому в результате всё, что вы слышите, скорее всего, было сказано кем-то где-то хотя бы один раз». 

Сейчас организаторы совершенствуют сценарные и режиссерские скиллы языковой модели, чтобы она не выходила за рамки нормы. Как заверил журналистов Хартл, они «постараются сохранить непредсказуемость и генеративный характер шоу, но в идеале устранить возможность появления неуместных замечаний».

© Habrahabr.ru