ВЦИОМ: действия ИИ должен контролировать человек
[unable to retrieve full-text content]
Большинство россиян не верят, что искусственный интеллект способен всегда учитывать нормы морали в своих решениях, поэтому поддерживают обязательную оценку человеком этичности продуктов, созданных ИИ-системами (77%). Об этом говорится в свежем исследовании ВЦИОМ (Всероссийский центр изучения общественного мнения).
Сгенерировано нейросетью Dall-E
При этом десятый опрошенный, напротив, считает, что ИИ можно научить всегда быть этичным (11%). Ещё больше россиян поддерживают разработку этических стандартов для компаний, работающих в сфере ИИ (85%). Из них 56% говорят о необходимости создания регламента, обязательного для всех, а 29% — о создании добровольного и рекомендательного свода правил. О том, что свод правил этики не нужен, заявили только 4% опрошенных.
За год россияне стали чаще выступать за маркировку продуктов и решений, созданных с помощью ИИ — сегодня 73% россиян считают это необходимым решением (2023 г. — 69%). Вместе с тем за год сократилась доля противников маркировки до 17%, на 6 п.п. по сравнению с 2023 годом.
© iXBT