Ученые объяснили, угрожают ли человечеству ChatGPT и схожие нейросети

Мозг
Источник: Unsplash

Современные нейросети по типу ChatGPT оказались безопасными для судьбы человечества. К такому выводу пришли ученые из Университета Бата в Великобритании и Технического университета Дармштадта в Германии. Как рассказали исследователи, большие языковые модели остаются управляемыми инструментами.

Специалисты решили выяснить, могут ли чат-боты самостоятельно обучаться. Если бы у нейросетей такая возможность была на очень высоком уровне, то ИИ-модели становились бы все более мощными. Такая ситуация могла бы угрожать безопасности различных систем, а в дальнейшем — и всему человечеству.

Однако новое исследование показало, что нейросети остаются управляемыми, предсказуемыми и безопасными. Ученые выяснили, что большие языковые модели лишь поверхностно могут следовать инструкциям. Самостоятельно они не могут овладевать новыми навыками. Нейросетям требуется четкое обучение, чтобы у них появились новые возможности. По словам экспертов, это удалось узнать благодаря тысячам экспериментов, во время которых ИИ-модели просили выполнять задачи, с которыми они никогда не сталкивались.

Как считают специалисты, теория о том, что большие языковые модели угрожают жизни людей отвлекают от реальных проблем. Ученые подчеркнули, что при использовании нейросетей все равно есть риски. Например, такие технологии могут использовать не по назначению, из-за чего могут создаваться различные фейки. Но чат-боты вряд ли смогут научиться сложным рассуждениям. Исследователи добавили, что не стоит бездумно полагаться на нейросети — для их работы требуются четкие инструкции, при отсутствии которых высока вероятность ошибок и «галлюцинаций».

Ранее компания OpenAI придумала способ, который позволяет определять текст, сгенерированный в ChatGPT. Такой инструмент тестируют уже длительное время. Однако разработчики не спешат добавлять его в свою нейросеть. Как считают сотрудники компании, такая фишка хоть и поможет бороться с созданием и распространением различных фейков, но может отпугнуть значительную часть пользователей.

©  HI-TECH@Mail.Ru