introduzione: inquadrata nel contesto di una controversia legale tra Anthropic e il dipartimento della difesa degli Stati Uniti, una coalizione di ricercatori provenienti da OpenAI e Google DeepMind ha presentato un amicus brief per sostenere la tesi di Anthropic. la vicenda ruota attorno a una decisione governativa che coinvolge etiche e termini contrattuali, con riflessi sull’intera industria dell’intelligenza artificiale. si analizzano le ragioni della difesa, le posizioni contrapposte e le possibili ripercussioni sul panorama tecnologico e scientifico statunitense.
anthropic contro la blacklist del dod: sostegno da openai e google
la controversia è nata quando il dipartimento della difesa ha etichettato Anthropic come “rischio della catena di fornitura”, una classificazione solitamente riservata agli avversari esterni. questa sanzione è giunta dopo il rifiuto da parte di Anthropic di rimuovere alcuni vincoli etici dai contratti militari, tra cui restrizioni sull’uso dell’AI per sorveglianza di massa o per l’impiego autonomo di armi letali. il governo sostiene di non dover vincolarsi ai termini di un fornitore privato, mentre i rivali sostengono che si tratti di una azione eccessiva di potere statale che minaccia l’autonomia contrattuale.
i ricercatori hanno depositato il brief a titolo personale, evidenziando che la decisione genera incertezza e potrebbe compromettere la competitività scientifica americana. secondo la lettura esposta, una soluzione semplice esisteva: se il governo era insoddisfatto dei termini di sicurezza, avrebbe potuto annullare il contratto e cercare un fornitore alternativo anziché utilizzare una etichetta di stato per punire un fornitore.
si denuncia inoltre un possibile effetto di gelo sull’industria, poiché l’assenza di una normativa pubblica chiara avrebbe come conseguenza una silenziosa compressione del dibattito etico sui sistemi IA avanzati, che restano spesso l’unico baluardo contro un uso improprio massiccio.
rivali uniti per difendere l’etica della ricerca
il tempismo del sostegno verso Anthropic risultaletto significativo: pochi istanti dopo la designazione del dod, OpenAI ha siglato un proprio accordo con l’esercito, scelta che alcuni hanno ritenuto opportunistica. nondimeno, una consistente parte dei dipendenti di OpenAI ha aderito alla protesta contro la rischio della catena di fornitura, e anche il CEO Sam Altman ha espresso pubblico dissenso verso la decisione governativa.
i firmatari principali del brief includono ricercatori di rilievo come Zhengdong Wang e Noah Siegel di Google, insieme a Pamela Mishkin e Gabriel Wu di OpenAI. nel testo viene sottolineato che le argomentazioni puntino a tutelare l’integrità del settore e a prevenire una punizione politica delle scelte etiche intraprese dai fornitori di IA.
in questa cornice, Anthropic sta cercando un ordine restrittivo temporaneo che permetta di proseguire le collaborazioni con partner militari durante l’andamento del processo. il brief amicus sostiene esplicitamente questa richiesta, presentandola come misura necessaria per preservare l’intero ecosistema dell’IA.
principali protagonisti
- Zhengdong Wang — Google
- Noah Siegel — Google
- Pamela Mishkin — OpenAI
- Gabriel Wu — OpenAI











Lascia un commento