DeepSeek ha copiato OpenAI? I dubbi USA mentre l’UE tiene d’occhio la startup

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Sconto crediti fiscali

Finanziamenti e contributi

 


Dagli Usa all’Europa, l’Occidente comincia a reagire al terremoto DeepSeek. La startup cinese (che con i suoi modelli a basso costo ha atterrito i mercati e cambiato probabilmente la storia dell’intelligenza artificiale) secondo voci vicine a OpenAI potrebbe aver ‘copiato’. Ma su accuse del genere, nel mondo dell’intelligenza artificiale, si deve procedere con cautela, e per ora da OpenAi non sono arrivate dichiarazioni ufficiali in merito.

In Europa invece si sono mosse le autorità: dopo il Garante per la privacy italiano, che ha chiesto a DeepSeek di rispondere entro 20 giorni alle sue domande sul trattamento dei dati degli utenti, il sito Mlex – che cita un documento interno – ha riportato che anche l’AI Office europeo sta tenendo sott’occhio i modelli AI dell’azienda, a causa di preoccupazioni sul ruolo governativo, su possibili usi militari o criminali, e sulle conseguenze relative alle misure di sicurezza.

Intanto l’app cinese cè sparita dagli store di Google e Apple, e non è quindi scaricabile in Italia. Non si conoscono ancora i motivi, mentre il sito, rallentato, è ancora raggiungibile.

Sconto crediti fiscali

Finanziamenti e contributi

 

DeepSeek ha copiato OpenAI?

È stato il Financial Times a riportare l’opinione di una persona ‘vicina’ a OpenAI, convinta che ci siano ‘evidenze’ di una pratica di ‘distillation’ operata dall’app cinese nei confronti dei modelli di ChatGpt.

La stessa azienda americana – i cui terms of service proibiscono l’utilizzo della distillation per la creazione di atri modelli – non ha commentato ufficialmente, e per ora a sostenere o suggerire la tesi sono più che altro gli investitori USA che sull’AI rischiano di perdere molto – come Josh Kushner di Thrive Capital – e lo tsar dell’AI di Donald Trump, David Sacks, insieme al presidente stesso. La tesi è sempre quella della ‘distillation’, anche se Sacks non ha specificato in che modo sarebbe avvenuta illecitamente, o quali sarebbero le prove.

Cosa è la distillation

Ma cos’è la distillation, quanto è diffusa nel mondo AI e perché per ora non c’è un’accusa formale?

Per distillation si intende la pratica di utilizzare gli output di altri modelli di intelligenza artificiale per addestrare il proprio. Una pratica molto diffusa tra tutti gli attori principali occupati nello sviluppo di modelli di intelligenza artificiale – tanto da rendere meno chiari i confini legali di questa pratica

“La distillation nell’AI è una tecnica che permette di “trasferire” conoscenza da un modello grande (teacher) a uno più piccolo (student), ottimizzando performance e costi. È una pratica diffusa, non solo tra le aziende AI ma anche nel mondo accademico”, spiega a Fortune Italia Emanuela Girardi, esperta e founder di Pop AI, oltre che presidente di Adra (AI, Data and Robotics Association) .

Una pratica diffusa

“OpenAI stessa ha dichiarato di essere consapevole che molte aziende, incluse quelle cinesi, tentano di distillare” i suoi modelli, dice Girardi. “Tuttavia, la distillation in sé non è una violazione della proprietà intellettuale, a meno che non venga usata per creare un modello concorrente copiando direttamente il comportamento del modello originale, il che potrebbe violare i termini di servizio. Nel caso specifico di DeepSeek la questione della distillation nel campo dell’AI è più complessa di quanto sembri. Da un lato è una pratica legittima e diffusa, dall’altro può sollevare questioni etiche e legali quando usata per replicare modelli proprietari. La startup cinese è riuscita a sviluppare un modello competitivo con risorse limitate, appena 5.6 milioni di dollari e 2,048 GPU di “vecchia generazione”, ma OpenAI sostiene di avere prove che questo risultato sia stato ottenuto attraverso la distillation non autorizzata dei loro modelli. È un po’ come copiare gli appunti di un compagno di classe per saltare lo studio”.

Al momento, come detto, non esiste un’accusa formale di plagio contro DeepSeek, e anche alcune figure importanti di OpenAI non ne hanno parlato. Nonostante l’approccio open source di DeepSeek sia il fattore più dirompente per i concorrenti americani, un modello completamente trasparente – e quello di DeepSeek non lo è se si guarda a codice e dati utilizzati – avrebbe permesso di fugare i dubbi. Secondo l’esperta Timnit Gebru, founder del Distributed Ai research institute, difficilmente si otterrà mai trasparenza sui dati da parte dei grandi modelli, perché “tutti li rubano”.

La stessa OpenAI deve affrontare le accuse di copyright infringement mosse da giornali e creatori  di contenuti come il New York Times, convinti che l’azienda abbia addestrando i suoi modelli utilizzando i loro dati senza permesso.

Prestito condominio

per lavori di ristrutturazione

 

Le parole del Chief Research Officer di OpenAI

Il Chief Research officer dell’azienda Mark Chen, ad esempio, si è complimentato con DeepSeek, sottolineando però come dai loro documenti di ricerca emergano le stesse conclusioni alle quali è arrivata OpenAi nello sviluppo di o1 e sottolineando i dubbi relativi ai costi dello sviluppo dei modelli cinesi, che a detta di molti dovrebbero superare i 5,6 mln di dollari riportati in questi giorni.

Le reazioni in Europa

In Europa il Garante per la privacy italiano è stato tra i primi a reagire al terremoto DeepSeek, in un’azione simile a quella che portò al temporaneo blocco di ChatGPT in Italia. “L’Autorità – fa sapere il Garante – considerato l’eventuale alto rischio per i dati di milioni di persone in Italia, ha chiesto alle due società e alle loro affiliate di confermare quali siano i dati personali raccolti, da quali fonti, per quali finalità, quale sia la base giuridica del trattamento, e se siano conservati su server collocati in Cina”. Il Garante, inoltre, ha chiesto “alle società che tipo di informazioni vengano utilizzate per addestrare il sistema di intelligenza artificiale e, nel caso in cui i dati personali siano raccolti attraverso attività di web scraping, di chiarire come gli utenti iscritti e quelli non iscritti al servizio siano stati o vengano informati sul trattamento dei loro dati. Entro 20 giorni le società dovranno fornire all’Autorità le informazioni richieste”.

Questi modelli potrebbero essere utilizzati per raccogliere informazioni sensibili o persino per influenzare l’opinione pubblica, spiega Girardi. “Un ulteriore punto critico riguarda la qualità e i bias nei modelli. Senza una reale trasparenza sugli standard di sviluppo e sui dataset utilizzati, è difficile valutarne l’affidabilità e il rispetto dei principi etici”.

Ma quella del garante non è stata l’unica reazione: anche l’Ai Office europeo, istituito recentemente, ha deciso di osservare da vicino la startup cinese e le conseguenze dell’accelerazione impressa dai suoi modelli sul mercato AI. Senza contare che, ricorda Girardi, questa estate arriverà il framework europeo sui modelli fondazionali di AI. “Per affrontare queste sfide, l’AI Office sta coordinando un gruppo di lavoro per definire un code of practice destinato ai modelli fondazionali di AI general-purpose. Questo framework stabilirà i requisiti obbligatori per questi sistemi, considerati a rischio sistemico secondo l’AI Act, con entrata in vigore prevista per agosto 2025. Come membro di alcuni dei gruppi di lavoro coinvolti nella stesura di questo documento, posso confermare che, una volta approvato, tutte le startup che vorranno operare in Europa dovranno conformarsi a questi requisiti”.

L’appello delle associazioni tra DeepSeek e Stargate

Ma la reazione europea rischia di arrivare troppo tardi, sia rispetto alla Cina che rispetto agli Usa, che intanto promette investimenti da 500 mld di dollari per il suo nuovo Stargate, il progetto AI di Softbank, Oracle e OpenAI.

Adra, EAIF – European AI Forum, e EIT Digital hanno firmato una lettera in cui chiedono all’Ue di investire su se stessa: “Affidarsi a fornitori di IA non europei non è più un’opzione. Dobbiamo investire nell’infrastruttura dell’AI, semplificare le normative e promuovere l’innovazione, garantendo un ecosistema europeo dell’AI sovrano, competitivo ed efficiente dal punto di vista energetico”.

Tra le misure richieste : una strategia “audace e ambiziosa” per moltiplicare le opportunità per l’AI e una collaborazione pubblica-privata per “sbloccare il valore e il ritorno sugli investimenti per l’industria; migliorare la nostra infrastruttura e la ricerca AI; accelerare l’innovazione di AI all’avanguardia, data technology e robotica”.

Cessione crediti fiscali

procedure celeri

 

Come ha fatto DeepSeek a sconvolgere la Silicon Valley?





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Conto e carta

difficile da pignorare