ChatGPT разрешили использовать в военных целях

ChatGPT разрешили использовать в военных целях

Как отмечает издание The Intercept, до 10 января 2024 года страница "Политики использования" компании OpenAI включала прямой запрет на "деятельность, которая имеет высокий риск физического вреда, включая", в частности, "разработку оружия" и "военные действия".

Этот четко сформулированный запрет на военное применение, по-видимому, исключает любое официальное и чрезвычайно прибыльное использование Министерства обороны или любой другой государственной армии. Новая политика сохраняет запрет “не использовать наши услуги во вред себе или другим” и приводит в качестве примера “разработку или использование оружия”, но полный запрет на “военное и военное” использование исчез.

OPENAI на этой неделе незаметно удалила формулировку, прямо запрещающую использование своей технологии в военных целях, из своей политики использования, которая стремится определить, насколько мощные и чрезвычайно популярные инструменты, такие как ChatGPT, могут быть использованы. Об этом пишет журналист издания The Intercept Сэм Биддл.

“Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всем мире обычными пользователями, которые теперь также могут создавать GPT”, — сказал представитель OpenAI Нико Феликс в электронном письме The Intercept. “Такой принцип, как “Не причиняй вреда другим”, является широким, но легко понятным и актуальным во многих контекстах. Кроме того, в качестве ярких примеров мы специально привели оружие и ранения других людей”.

“Учитывая использование систем искусственного интеллекта для нападения на гражданское население в секторе Газа, это примечательный момент — принять решение удалить слова “военные и военные действия» из политики допустимого использования OpenAI”, — сказала Сара Майерс Уэст, управляющий директор AI Now. 

Хотя ничто из предложений OpenAI сегодня не может быть использовано для прямого убийства кого-либо, в военном или ином отношении (ChatGPT не может маневрировать дроном или запускать ракеты), любая армия занимается убийством или, по крайней мере, поддерживает способность убивать. Существует любое количество смежных задач, которые LLM, такой, как ChatGPT, может быть дополнен, например, написание кода или обработка закупок.

Эксперты, которые рассмотрели изменения в политике по запросу The Intercept, заявили, что OpenAI, похоже, молча ослабляет свою позицию против ведения бизнеса с военными. “Я могу себе представить, что переход от “военных и военных действий”» к “оружию” оставляет открытым пространство для OpenAI для поддержки операционной инфраструктуры до тех пор, пока приложение не будет напрямую связано с разработкой оружия в узком понимании”, — сказала Люси Сачман, почетный профессор антропологии науки и техники в Ланкастерском университете.

“Конечно, я думаю, что идея о том, что вы можете внести свой вклад в боевые платформы, заявляя, что вы не участвуете в разработке или использовании оружия, была бы неискренней, удаляя оружие из социотехнической системы, включая инфраструктуру управления и контроля, частью которой оно является”. Сачман, исследователь искусственного интеллекта с 1970-х годов и член Международного комитета по контролю над роботизированным вооружением, добавил: “Кажется правдоподобным, что новый политический документ уклоняется от вопроса о военных контрактах и ​​боевых операциях, уделяя особое внимание оружию”.


 

ПОДЕЛИТЬСЯ
ВСЕ ПО ТЕМЕ
КОММЕНТАРИИ
НОВОСТИ ПАРТНЕРОВ
ЗНАКОМСТВА
МЫ НА FACEBOOK