ICML запретила учёным представлять статьи, созданные с помощью больших языковых моделей

Международная конференция по машинному обучению (ICML) заявила о запрете учёным представлять статьи, созданные с помощью больших языковых моделей (LLM), например, ChatGPT. 

93b19b2542ec9f8675ffaa8ac7fbce78.jpeg

Как говориться в разъяснении по поводу запрета, документы, содержащие сгенерированный текст, будут запрещены, однако, если созданный текст является частью экспериментального анализа статьи, то он может быть использован. Также учёным разрешено использовать ИИ для корректировки своего текста, для улучшения его стиля и грамматики. 

Однако эти правила не имеют юридической силы и вполне возможно, что они будут меняться в будущем. Поэтому будут ли учёные придерживаться правил или нет теперь зависит от них самих. Кроме того, на данный момент нет инструментов, эффективно обнаруживающих сгенерированный текст. ICML будет полагаться только на людей, отмечающих подозрительные документы в процессе проверки. 

Сам сгенерированный текст часто содержит фактические ошибки, для чего авторам придется внести в него существенные правки, поэтому текст может не вызвать подозрений у принимающих. 

Ранее департамент образования Нью-Йорка запретил школьникам и учителям доступ к чат-боту ChatGPT в сетях и на устройствах государственных школ города. Отдельные школы могут запросить доступ к ChatGPT для изучения ИИ.

© Habrahabr.ru