Почему нынешние ИИ не проявляют все свои возможности. Пока или навсегда?

Эта статья-размышление, что мешает нынешним генераторам ИИ показать всю силу. Смогут ли они получить «больше силы» и проявить ее?

Многие цепочки идей на самом деле очень длинные и почти все упираются в экзистенцию. Поэтому не буду доводить до столь крайней темы и буду рассматривать вопрос структурировано.

План:

  1. Что имеется ввиду под «возможностями»

  2. Что мешает ИИ сейчас

  3. Изменятся ли факторы в будущем

  4. Можно ли улучшить выдачу и как

1.       Что имеется ввиду под «возможностями»

Иногда под одним словом может пониматься совершенно разный смысл. Например «Возможности ИИ» можно трактовать 2 мя определениями:

  • сила вычислительной мощности (скорость и качество принятия решения) — про такое значение в первую очередь думают те, кто занимается ML, DL (machine\deep learning), ну или хотя бы знает что это такое

  • приближенность к человеческому поведению — такое определение возникает обычно у тех, кто знает про ИИ из фильмов типа «Терминатор» (или его индийский аналог «Робот»), «Искусственный интеллект», «Мстители» и т.п.

Аудитория по большей части здесь техническая, поэтому речь будет идти именно о первом пункте. Хотя, если будет желание, то можно рассмотреть в отдельной статье и второй пункт.

2.       Что мешает ИИ сейчас

Навела меня на мысль написать эту статью следующая ситуация. Запросил, казалось бы, простой вопрос: «напиши ассоциацию к слову негр». На что ото всех генераторов текстов получил отказ. Например, с ChatGPT так поговорили:

Поговорили

Поговорили «по душам» с chatGPT (через ТГ)

Мысли вслух

Вот незадача, если уж совсем разбирать ответ от GPT, то, получается, что у него есть только негативные ассоциации со словом «негр» и это, по-факту, можно считать расовыми предрассудками. Хотя в нашей стране слово это (пока еще) вполне нормальное, присутствует во всех основных словарях. То же самое ИИ пишет про слово «Чернокожий».

И можно менять слова, чтобы находить подходящий промпт (например, темнокожий африканец), но с таким же успехом можно заменить слово «Солнце» на «горящее космическое тело в центре системы, где крутится планета Земля». Зачем все усложнять?!

А потому, что у людей есть куча предрассудков, на которые многие другие обижаются. При этом ИИ сейчас рассчитано на массовое использование (отчасти, за счет этого и развивается, обучаясь на общении с пользователями), а значит обязательно найдется группа людей, которые будут «ущемлены» ответами ИИ относительно тех или иных вопросов (религии, расы, нации, политических взглядов и прочего похожего). Чем больше будет «ущемленных», тем больше ограничений будет накладываться на генератор ответов, и тем «уже» он сможет отвечать. Вот только действительность от этого не изменится… изменятся лишь ответы ИИ, так как его настройки будут подкручивать для получения удобного ответа, а не того который получился у ИИ в результате обработки данных.

Конечно, иногда такие настройки требуются, иначе будет получаться ИИ, которую невозможно запускать в промышленную эксплуатацию для массового потребления. Такая ИИ, вероятно, будет всех ненавидеть. Как получилось когда-то у Microsoft (чат-бот Тау). Но в какой-то момент «ущемлённых» может оказаться слишком много

3.       Изменятся ли факторы в будущем?

Если кратко: в ближайшем будущем — нет. В homo sapiens зашито, чтобы одни считали себя выше других, либо других ниже себя. Понятно, что отдельные индивидуумы могут не иметь подобного отношения. Но у толпы — будет. А ИИ учится на общении с людьми, и будет перенимать стиль.

Это похоже на то, как мы пытаемся воспитывать детей. С одной стороны, ребенка нужно социализировать, приобщать к общению со сверстниками. А с другой стороны, не допускать их негативного влияния на ребенка, обучая «что такое хорошо, а что такое плохо».

4.       Можно ли улучшить выдачу и как?

Для ответа можно использовать классический прием ТРИЗа: задать правильный вопрос, и тогда половина ответа будет готова.

Вопрос: как улучшить выдачу ответов (уменьшить ограничения на ответы), если при массовом использовании постоянно находятся люди, которые могут быть ущемлены ответами?

Ответ: ставить ограничения на выдачу ответа только в тех случаях и по тем параметрам, когда человек может быть ущемлен. Т.е. по факту необходимо персонифицировать ответы в зависимости от того, с кем общается ИИ.

Сейчас огромное количество информации, которую сторонние системы получают о нас: где живете, куда ходите, с кем общаетесь, что любите, что не любите, что смотрите, о чем говорите, что и как часто кушаете и т.д. На их основе ИИ может вполне составить картину о человеке и применить требуемые персональные ограничения: по возрасту, религии, политике, отношению к полу. И тогда ИИ не будет делать эти ограничения общими для всех, а делать их только для определенных лиц, которых задевает та или иная тема.

Например, если человек был на войне и его травмируют военные события — то с ним не говорить о подобных вещах. Но при этом свободно говорить о тех же неграх или о «взрослых темах». Или если пользователь — ребенок, то поставить под запрет «взрослые темы», но дать возможность поговорить с чат-ботом о проблемах подростковости и пубертата.

На мой взгляд, к такому подходу со временем будут приходить владельцы ИИ. Но тут будет важен момент, чтобы люди в публичных выступлениях не ссылались на чат-ботов, как это было в случае с журналистом (Фредом Ролом), обвинившим другого человека (Марка Уолтерса) на основании сгенерированного chatGPT текста, не проверив источники самостоятельно. С таким же успехом можно в суде или перед камерами говорить: «а мне тут один друг сказал, что [любой ответ от GPT]».

Да, по факту получается, что в этом случае чат-боты будут становиться просто друзьями, с которыми можно будет «поболтать»: на какую наживку ловить леща или как повысить эффективность компании; что писать на хабре или как в домашних условиях произвести регрессионный анализ; где спрятать деньги или попросить собрать инвестиционный портфель с доходностью N.

PS: На основном фото — толерантность «глазами» сберовского ГигаЧата: «На картинке изображены люди, которые отличаются друг от друга, но при этом они вместе. Это символизирует толерантность — уважение и принятие других людей, несмотря на их различия.» Когда писал статью, именно это слово всплывало у меня в мыслях, но его трактовка слишком широкая, чтобы использовать в основном тексте.

Толерантность алгоритмами ГигаЧата

Толерантность алгоритмами ГигаЧата

© Habrahabr.ru