Міністерство оборони Сполучених Штатів Америки опинилося в центрі потенційного скандалу. За даними авторитетного видання The Wall Street Journal, Пентагон, можливо, застосував передовий інструмент штучного інтелекту Claude, розроблений компанією Anthropic, у секретній операції.
Ця операція, як повідомляється, була націлена на захоплення Ніколаса Мадуро, який раніше обіймав посаду президента Венесуели. Використання ШІ в таких чутливих військових операціях вже саме по собі є значною новиною, що підкреслює зростаючу роль технологій у сучасній геополітиці.
Однак основна проблема полягає в тому, що компанія Anthropic, розробник Claude, має чітко визначені правила використання свого продукту. Ці правила суворо забороняють застосування ШІ-інструменту для будь-яких дій, що можуть сприяти насильству або військовим конфліктам.
Якщо інформація The Wall Street Journal підтвердиться, це означатиме пряме порушення етичних та юридичних зобов'язань, покладених на користувачів технології Claude. Такий інцидент може мати серйозні наслідки як для Пентагону, так і для репутації Anthropic.
Експерти вже висловлюють занепокоєння щодо можливих прецедентів, які може створити подібне використання ШІ. Це також піднімає питання про контроль та відповідальність за застосування штучного інтелекту у військових цілях, особливо коли йдеться про порушення встановлених розробниками обмежень.
Наразі ні Пентагон, ні Anthropic офіційно не прокоментували ці звинувачення. Світова спільнота очікує на подальші роз'яснення та результати можливих розслідувань, щоб зрозуміти повний масштаб та наслідки цієї ситуації.

