Суд в США отменил решение Белого дома внести компанию Anthropic в черный список

Reuters: в США суд отменил решение Белого дома о внесении Anthropic в черный список
Azulblue/Shutterstock/FOTODOM

Федеральный суд в США поставил под сомнение решение Пентагона о внесении компании Anthropic в список поставщиков с рисками для национальной безопасности. Судья заявила на слушаниях, что подобная мера выглядит как попытка наказать разработчика ИИ за публичные заявления о безопасности технологий в военной сфере. Об этом сообщает агентство Reuters.

Иск компании рассматривается в федеральном суде Калифорнии. В нем утверждается, что министр обороны Пит Хегсет превысил полномочия, присвоив Anthropic статус угрозы для цепочек поставок. Такой статус ограничивает участие компании в военных контрактах и может привести к значительным финансовым потерям.

По мнению суда, решение властей может быть связано с позицией Anthropic, отказавшейся разрешить использование своего ИИ Claude для задач наблюдения и автономных вооружений. Судья отметила, что действия Пентагона «выглядят как попытка подорвать деятельность компании» и наказать ее за стремление привлечь внимание общественности к спору вокруг контракта.

Anthropic в иске также заявляет о нарушении конституционных прав, включая свободу слова и право на надлежащую правовую процедуру, поскольку компания не получила возможности оспорить решение до его публикации. Представитель разработчика подчеркнул, что власти использовали спорную интерпретацию законодательства для давления на компанию.

В Минюсте США, напротив, считают действия оправданными. По словам представителя ведомства, отказ Anthropic поддержать использование своих технологий в рамках военных задач вызывает сомнения в надежности компании как подрядчика и может представлять риск для безопасности.

Судья сообщила, что вынесет письменное решение по ходатайству о временной приостановке действия ограничений в ближайшие дни.

Ранее OpenAI отказалась от разработки эротического режима в ChatGPT.