OpenAI furioso: DeepSeek potrebbe aver rubato tutti i dati che OpenAI ci ha rubato
"Spiegherò cosa significa tra un momento, ma prima: HAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHHAHAHAHAHAHAHAHAHAHAHAHAHAHAHA 🤣🤣🤣
È ironico che OpenAI, che ha ottenuto grandi quantità di dati in gran parte in modo “non autorizzato” e, in alcuni casi, in violazione dei ToS di coloro da cui li ha presi, ora si lamenti delle stesse pratiche con cui ha costruito la sua azienda."
https://www.404media.co/openai-furious-deepseek-might-have-stolen-all-the-data-openai-stole-from-us/
@informapirata @aitech L’ipocrisia e la malafede fatte persona…
Quando si dice IL KARMA@informapirata @aitech open[h]ai! 😁:ah ma non è giusto… perché pure gli altri possono rubare?🤔😁🤓
@informapirata @aitech ti giuro che appena ho letto il titolo di questa notizia mi sono pisciato sotto dalle risate! Il bue che dice cornuto all’asino! Senza parole!
@informapirata Del resto è Open, quindi… E poi ora c’è pure Alibaba con Qwen 2.5 Max, avranno rubato pure loro? @aitech
@out ricordo sempre che una cosa è il modello (open nel caso di DeepSeek), altra cosa il training set che è ancora più importante.
@mau Si, certamente,
il riferimento a Open(AI) era una battuta relativamente al furto dei dataset: il nome lascerebbe intendere libertà d’utilizzo quindi perché si lamentano? Battuta appunto. @informapirata @aitech@mau @out @informapirata @aitech solo per curiosità, si può fare un parallelo con i programmi che giocano a scacchi, oppure sono tecniche differenti di programmazione?
@fz9999 @mau @out @informapirata @aitech Credo di no. I motori scacchistici, a quanto ne so, agiscono in modo algoritmico per “forza bruta” trovando di volta in volta la situazione più favorevole.
Gli LLM procedono in modo statistico valutando la “distanza” tra token successivi.
@diegomaninetti non sono esperto, ma credo che la differenza fondamentale stia nel fatto che un AlphaZero applicato agli scacchi sa che esiste una soluzione ottimale e quindi giocando innumerevoli volte con sé stesso tara i suoi pesi con quel gradiente (a parte addestrarsi ogni tanto con salti per non bloccarsi in un minimo relativo), mentre gli LLM devono mettere in conto il doversi inventare qualcosa perché non c’è la “risposta esatta”. O almeno trentacinque anni fa era così.
@diegomaninetti @mau @out @informapirata @aitech ok, grazie👍
@fz9999 Non sono esperto,
teoricamente una similitudine penso possa esserci, in fondo si tratta di una delle mille applicazioni possibili. @mau @informapirata @aitechdeleted by creator