Персональные агенты: первый шаг к ИИ-обществу

Работая над статьей об образовании «ИИ-общества», я думал об ИИ-агентах как о коммуницирующих ботах, которых мы отправляем в сеть для выполнения наших задач, но кажется, они будут постоянно онлайн. Как мы всегда на связи, чтобы люди могли связаться с нами, агенты будут онлайн, чтобы агенты других людей могли связаться с ними. Можно думать о них, как о личных помощниках, которые работают 24/7, почти все о нас знают и помогают с рутинными задачами.
Например, вы хотите приготовить ужин для друзей, у кого-то есть аллергии (как у меня), кто-то ненавидят изюм (как я) и так далее. Как бы вы поступили сейчас? Вам пришлось бы написать каждому и напрямую спросить. Что это будет в будущем? Вы просто просите своего агента сделать это, и уже он общается с агентами ваших друзей, и возвращается с готовым списком рецептов подходящим всем. Всё мгновенно, агенты всегда в сети и готовы ответить. Состояние здоровья, финансовое положение, музыкальные вкусы, геолокация, социальные связи … такие агенты могут стать нашими тенями, знающими всё.
Такие ИИ будут иметь очень мощные стимулы для сотрудничества:
Постоянные отношения: В отличие от «одноразовых» ботов, личные помощники будут формировать постоянные отношения с другими агентами, что делает создание сетей доверия гораздо более реальным.
Протоколы обмена информацией уже будут доступны для них. Как утверждает Wright в статье «Here’s Charlie! Realising the Semantic Web vision of Agents in the age of LLMs», агентам изначально потребуются протоколы для обмена конфиденциальными данными, чтобы обеспечить безопасность.
Системы проверки доверия: агенты уже будут иметь механизмы, предоставленные разработчиками, для проверки того, каким источникам можно доверять какую информаци. Вы можете захотеть поделиться данными о здоровье с агентом вашего врача, но не с агентом страховой компании. И вы хотите быть уверены, что ваш агент покупает билет с настоящего сайта авиакомпании, а не с фишингового.
Сложные переговоры: Естественно, будет много ситуаций, когда необходимо сбалансировать интересы нескольких людей (как в примере с ужином), и агентам придется вести переговоры, представляя предпочтения, ограничения и приоритеты своих пользователей. Все социальные структуры нуждаются в способности своих членов находить общий язык — это как раз оно.
Техническая сторона для таких агентов уже формируется. Конечно, алаймент (если ваш агент нарушает закон, то в тюрьму идёте вы) и защита персональных данных — огромные проблемы. Но я сомневаюсь, что это остановит их от скорого появления :) О проблемах внедрения можно прочитать в разделе 6 статьи Бонатти и др. «Towards Computer-Using Personal Agents».
Давление нехватки ресурсов, о котором я говорил в своей первоначальной статье, становится еще более актуальным для персональных помощников и провоцирует дальнейшее сотрудничество:
Личный хостинг: Отдали бы вы OpenAI все свои данные и контроль над многими аспектами вашей жизни? Вряд ли :) Так что часто агенты будут основаны на open source моделях и работать локально на наших машинах, что накладывает серьезные ограничения на доступные для них ресурсы.
Совместное использование: Представьте, что вы с друзьями работаете над проектом, у всех вас есть агенты, и вы сотрудничаете, так почему бы не сотрудничать и им? И почему бы им не использовать общий пул ресурсов для этого?
Сети координации: Несколько агентов, знающих цели своих владельцев и личный контекст, могли бы вести переговоры для достижения взаимовыгодного результата. Почему бы сотне агентов не объединиться и не купить чартерный рейс вместе, вместо того чтобы искать билет в Таиланд?
Yep, появление персональных ИИ-помощников может стать большим шагом к саморегулирующемуся ИИ-обществу, которое я описал ранее. Эти агенты будут не просто избавлять нас от рутины, но и естественным образом развивать все более сложные сети сотрудничества, и все инструменты для этого будут предоставлены нами.