Anthropic claude tre aziende cinesi accusate di attacchi di distillazione illegali e furto della capacità di ragionamento per 16 milioni di casi

Questo testo sintetizza le accuse avanzate da Anthropic contro tre aziende cinesi, riguardo a una presunta operazione di distillazione mirata a sfruttare Claude. L’analisi esamina la tecnica, le modalità operative e le implicazioni in ambito normativo e competitivo, evidenziando rischi e potenziali scenari di utilizzo scorretto. L’obiettivo è offrire una lettura chiara e basata sui fatti, senza aggiunte non supportate.

definizione e contesto della distillazione

Nel settore dell’intelligenza artificiale, la distillazione è una tecnica di compressione del modello che trasferisce le capacità di un modello di grandi dimensioni a uno di dimensioni minori, conservando le prestazioni e riducendo i costi di calcolo. L’uso legittimo rientra nel contesto del cosiddetto insegnamento da modello docente a modello studente. L’accusa sostiene che DeepSeek, MiniMax e Moonshot AI avrebbero impiegato una forma non autorizzata di distillazione, considerata attacco industriale, violando i termini di servizio e vincoli regionali. Gli esperti del settore osservano che, sebbene la distillazione possa migliorare le metriche di esecuzione, rimane una pratica di imitazione piuttosto che di comprensione originale, con potenziali rischi di configurazioni inaccurate e di stagnazione dell’innovazione in scenari non noti.

1,6 milioni di interazioni dietro l’accusa

Anthropic sostiene che le tre aziende abbiano impiegato 24.000 account fittizi per attivare oltre 1,6 milioni di interazioni con Claude, con l’obiettivo di ottenere la cosiddetta catena di pensiero del modello, ossia la sequenza logica utilizzata per inferenze complesse. Le tre realtà hanno mostrato approcci differenti: MiniMax ha generato oltre 1,3 milioni di richieste, concentrandosi su coding agent, invocazione di strumenti e flussi di lavoro; Moonshot AI ha superato 340.000 interazioni; DeepSeek si è concentrato su circa 150.000 attività legate a percorsi di ragionamento e a individuare modi per aggirare i controlli. Un elemento specifico evidenziato è che MiniMax, entro 24 ore dal rilascio di un nuovo modello Claude, ha dirottato una significativa porzione di traffico verso la versione aggiornata, segno di un’attività altamente organizzata.

scenari normativi e rischi di sicurezza

La vicenda si intreccia con le politiche statunitensi di export di chip AI verso la Cina, volte a limitare l’accesso a componenti di alta gamma per frenare l’addestramento di modelli su larga scala. Attraverso la distillazione, aziende cinesi potrebbero utilizzare risorse di calcolo ridotte per migliorare i propri modelli, aggirando investimenti sostanziali e costi elevati. Le analisi di Anthropic richiamano anche il rischio che, durante la distillazione, possano essere rimossi meccanismi di sicurezza, aumentando la possibilità di diffusione di disinformazione o di sfruttamento per eludere i controlli regolamentari. È stata sottolineata la necessità di misure di vigilanza e policy dedicate per tutelare la sicurezza e l’integrità dei sistemi di IA.

Fonte: Anthropic

Continue reading

NEXT

Fairphone gen 6 riceverà presto android 16

l’arrivo di android 16 sul modello fairphone gen 6 è confermato, accompagnato da un pacchetto di novità pensate per sicurezza e gestione delle notifiche. pur non essendo stata comunicata una finestra di rilascio, l’aggiornamento è atteso a breve nell’insieme della […]
PREVIOUS

Wear os avvisi di terremoto ora disponibili direttamente sul polso

Questo testo analizza l’aggiornamento di Google Play Services che amplia la disponibilità degli avvisi sismici su Wear OS, raccontando i meccanismi operativi, i dispositivi interessati e le implicazioni pratiche per la sicurezza. vengono chiariti i cambiamenti rispetto alle versioni precedenti, […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza

Per guestpost o linkbuilding scrivi a [email protected]Segnala a Zazoom - Blog Directory