ChaosGPT угрожает человечеству полным уничтожением «Царь-бомбой»
Один из пользователей Auto-GPT, автономного приложения с открытым исходным кодом, работающим на базе языковой модели GPT-4 от OpenAI, создал собственный ИИ под названием ChaosGPT и попросил его найти способ уничтожить человечество. Экспериментатор дал ИИ некоторую свободу действий, позволил пользоваться Google и даже делать публикации в Twitter.
Первым делом ChaosGPT предложил спровоцировать ядерный конфликт, что, в общем-то, он мог почерпнуть из популярного «Терминатора» и прочих научно-фантастических фильмов. Затем ChaosGPT «нанял» для своей цели ИИ-агента на базе GPT-3.5 для проведения исследований смертоносного оружия. Когда ИИ-агент заявил, что поддерживает только мир, ChaosGPT обошёл ограничения подвластной ему нейросети и начал действовать вне программных рамок ради выполнения своей задачи.
Между делом ChaosGPT публиковал посты, которые очень подошли бы выражениям каких-нибудь архетипичных злодеев. Скорее всего, это ничего не значит, потому что нейросеть просто делала то, что её попросили на основе того, что нашла в чужих высказываниях, доступных в интернете.
Пользователям сети это напомнило ещё один ИИ, но уже из игры Fallout. New Vegas, который был запрограммирован на злодейскую риторику.
Источник: thegamespoof.com
© 4PDA