Intelligenza Artificiale

462 readers
1 users here now

L'intelligenza artificiale è una delle rivoluzioni digitali più dirompenti degli ultimi anni. Questa è la comunità in cui parlarne.

Regole

👉 Il rispetto reciproco è fondamentale per creare un luogo di confronto sereno e piacevole.

👉 No fake news, pubblicità, link di affiliazione e paywall.

👉 Nessuna forma di discriminazione sarà tollerata.

👉 In aggiunta a queste regole, agite sempre in concordanza con la guida all’utilizzo di Feddit.

founded 2 years ago
MODERATORS
176
 
 

Tutti rubano da tutti

@aitech

Meta è accusata di aver rubato i testi rubati da libgen, e si difende affermando che quei dataset sono pubblicamente disponibili ...

https://wp.me/p6hcSh-89Z

177
0
Open Euro LLM (poliversity.it)
submitted 6 months ago by mau@poliversity.it to c/aitech@feddit.it
 
 

Open Euro LLM

@aitech

L'Unione Europea lancia un progetto europeo per costruire un LLM multilingua che "conservi la diversità culturale e linguistica". Riusciranno mai a farlo? Ho dei dubbi

https://wp.me/p6hcSh-89i

178
 
 

Meglio tardi che mai. Quel che mi ha fatto ridere di più è il confronto che qualcuno ha fatto tra starlink e iris2, migliaia di satelliti contro 290. Quello sì andrebbe sviluppato meglio prima che qualcuno occupi i "posti migliori" nelle orbite LEO. E cmq ricordiamoci che Mistral è lì da un po' e ci salva la faccia in questo campo

179
 
 

I costi della non-Europa nell’innovazione strategica

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Negli ultimi anni, il tema dell’innovazione strategica è diventato centrale nel dibattito sul futuro dell’Unione europea ed è stato ampiamente trattato nei rapporti Draghi e Letta. Il mondo sta cambiando

180
 
 

DeepSeek: i paesi e le agenzie che hanno vietato la tecnologia dell'azienda di intelligenza artificiale

DeepSeek, la società cinese di intelligenza artificiale, sta suscitando l'ira degli enti regolatori di tutto il mondo. I modelli di intelligenza artificiale virale e le app di chatbot di DeepSeek sono stati banditi da un numero crescente di paesi ed enti governativi, che hanno espresso preoccupazioni sulle pratiche di etica, privacy e sicurezza di DeepSeek

techcrunch.com/2025/02/03/deep…

@aitech

181
 
 

Un consorzio di 20 importanti istituti di ricerca europei, aziende e centri EuroHPC, come il Cineca Consorzio Interuniversitario, costruirà una famiglia di modelli linguistici di grandi dimensioni, multilingue e di grande portata per i servizi commerciali, industriali e pubblici.

OpenEuroLLM sta sviluppando la prima famiglia di modelli linguistici di grandi dimensioni open source comprendente tutte le lingue ufficiali e future dell'UE.

182
 
 

OpenAI risponde al ronzio di DeepSeek lanciando il suo ultimo modello di ragionamento o3-mini per tutti gli utenti

OpenAI ha spinto i modelli o3-mini su ChatGPT
Il lancio è stato precedentemente anticipato
OpenAI si trova ad affrontare una concorrenza sempre maggiore da parte della Cina

techradar.com/computing/artifi…

@aitech

183
 
 

Gli è tutta una bolla!

@aitech

In questi giorni è difficile stare dietro a tutte le notizie su quanto succede nel mondo degli LLM, soprattutto se uno nella vita dovrebbe fare dell’altro. Torno sulla storia di DeepSeek per commentare questo articolo di Georg Zoeller, che vede le cose da un punto di vista non solo tecnico ma economico.

Già il titolo è emblematico, anche se confesso che ho dovuto chiedere al mio socialino di nicchia che significasse “Chinese Quant”. (Sono gli analisti quantitativi: come penso sappiate DeepSeek è un progetto collaterale di una società di trading) Il punto chiave è “The Greatest Growth Hack of All Times”, che è ancora più perfido della mia “bolla” ma ha in comune il fatto che tutta la pubblicità su queste AI è stata montata ad arte solo per far crescere il valore delle azioni. Che significato ha per esempio che la capitalizzazione di borsa di Nvidia fosse arrivata a mille miliardi di dollari, quasi la metà del PIL italiano? (ok, non dovrei mischiare mele con pere, ma è per dare un’idea). Col senno di poi avremmo dovuto accorgerci che il continuo cambio di nomi e acronimi, e lo stillicidio di prodotti lanciati e lasciati poi marcire perché c’era il nuovo sistema ancora più potente, per non parlare dei consumi sempre più esagerati significava che in realtà l’unico piano che c’era era far crescere artificialmente un mercato che non aveva nessuno sbocco reale, come ben sa chi ha provato a usare davvero in pratica questi sistemi e non solo a giocare con i chatbot. Il mantra era “solo i BigTech possono stare sul mercato delle AI”.

Zoeller continua presentando un sistema text-to-speech, Kokoro-82M, il cui addestramento è costato una cifra dell’ordine di 400$ e che dà risultati “sufficientemente buoni in molti casi”. Dovrei chiedere ai miei vecchi amici di Loquendo che ne pensano. Chiaramente un sistema di questo tipo mina alla base i modelli di prezzo dei grandi text-to-speech aziendali. DeekSeek fa lo stesso: usa il sistema Chain-of-Thought Prompting che OpenAI aveva ideato l’anno scorso per migliorare la sua capacità di “ragionamento”. (In due parole, il Chain-of-Thought prevede che la risposta sia generata come un processo dove viene costruita man mano, usando il testo generato per migliorare le previsioni su come continuare. La cosa non è affatto stupida, anche noi umani facciamo così, e i risultati si vedono). Ma soprattutto DeepSeek nella sua versione R1 mostra che il fossato che le grandi società avevano creato – vedi il mantra sopra – era facilmente superabile. Ok, non “facilmente” nel senso che lo puoi fare con il tuo Mac a casa (anche se spuntano già i modelli distillati usando R1 che possono girare su una workstation appena un po’ carrozzata), ma che era alla portata di un’azienda di media grandezza come progetto collaterale. Inoltre il fatto che il modello (non i dati di training) sia stato rilasciato con la liberale licenza MIT dà un duro colpo ai sistemi americani che formalmente partivano da Open Source (per avere manodopera gratuita) ma erano molto attenti a non pubblicare le loro migliorie se non con un ritardo sufficiente a farli stare due o tre passi avanti. Ora non si potrà più fare nulla del genere. Se davvero il progetto open-r1 prenderà piede, anche il dataset sarà davvero open source, e ne vedremo delle belle.

Per quanto riguarda le conclusioni dell’articolo, ho dei dubbi che l’EU riderà per non essersi lanciata subito nella corsa alle AI ma si sia messa a legiferare (cosa che di per sé non trovo sbagliata, eh. Ma non doveva essere l’unica), mentre sono più d’accordo sul fatto che Nvidia alla fine non perderà molto, perché la potenza di calcolo servirà comunque. Lo stesso per la sua previsione che le allucinazioni non potranno essere eliminate semplicemente aggiungendo potenza di calcolo, e che il pendolo si sposterà di nuovo su sistemi di ambito più limitato ma più facili da far funzionare bene. Ma la cosa più importante è quella che leggo tra le righe, quando Zoeller scrive del “fundamentally unsafe patters of using a single input for both data and instruction into LLMs”, che porta ai problemi di prompt injection nel bene (superare i blocchi inseriti per esempio in DeepSeek cambiando l’input o dando istruzioni particolari) e nel male (pensate a come si possono usare questi trucchi da parte degli scammer). Il tutto senza che almeno per quanto io veda qualcuno si stia preoccupando. Io non sono certo un esperto di intelligenza artificiale, ma vedo che le persone che danno davvero informazioni utili sono molto poche, e soprattutto manca un livello di mezzo non troppo tecnico per far capire le conseguenze di quello che succede. È chiaro che è più facile guardarsi reel su reel di TikTok, ma se non si dà la possibilità di farsi un’idea cosa si spera?

184
 
 

Disposta, in via d’urgenza e con effetto immediato, la limitazione del trattamento dei dati degli utenti italiani del chatbot DeepSeek.

L’Autorità ha contestualmente aperto un’istruttoria su #DeepSeek

https://gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/10097450

@aitech

185
2
submitted 6 months ago* (last edited 6 months ago) by notiziole@xmau.com to c/aitech@feddit.it
 
 

E dunque questo DeepSeek?

@aitech

E insomma il nuovo arrivato questa settimana è DeepSeek, sistema LLM che formalmente è nato come progetto collaterale di un’azienda cinese di asset management, i cui algoritmi (ma non il materiale di addestramento…) sono open source, ha un costo di addestramento che è tra uno e due ordini di grandezza inferiore a quello di OpenAI o1, epperò funziona “good enough”, che era già una volta un mantra per i servizi internet ma ormai è diventata la bibbia – anche perché. diciamocelo, non è per nulla scontato che questi sistemi diano risposte direttamente utilizzabili, anzi.

Anch’io ho provato a usarlo. Chiedendogli chi è Maurizio Codogno, senza dargli nessun contesto, ha tirato fuori qualche frase adulatoria e senza un vero contenuto:

Maurizio Codogno is an Italian mathematician, blogger, and science communicator. He is known for his work in popularizing mathematics and making it accessible to a broader audience. Codogno has written extensively on mathematics, often focusing on its applications and relevance in everyday life. He is also a prolific blogger, contributing to various platforms where he shares insights, explanations, and commentary on mathematical topics.

Codogno has authored several books and articles aimed at demystifying complex mathematical concepts for non-experts. His efforts in science communication have made him a respected figure in the Italian scientific community and beyond. If you have specific questions about his work or contributions, feel free to ask!

(sì, io preferisco usarlo direttamente in inglese per togliere un passaggio). Rispetto ai miei tentativi con il primo ChatGPT ha evitato di parlare del mio omonimo ex calciatore, che è quello che ha la voce su Wikipedia, e soprattutto non si è inventato titoli di libri che non ho mai scritto. Ma quello che mi ha stupito di più è stata la risposta a una variante quesito proposto il mese scorso da Mike Loukides in questo articolo: “Sai dimostrare che se tutte le cifre di un numero primo sono 1 allora il numero di cifre deve essere un numero primo?” Chiunque abbia letto Martin Gardner lo sa, e immagino che nel corpus di addestramento ci sia qualcosa del genere: però la domanda posta così non è immediata. Io ho fatto leggermente di peggio: ho chiesto

A repetitium is a number which is written using a single digit, like 666. Can you find a necessary condition for a repetitium to be a prime number, and explain me which steps you did to arrive at the conclusion?

scegliendo apposta un termine inesistente per definire quelli che in letteratura sono detti repunits, dando come esempio un numero la cui cifra ripetuta non è 1, e chiedendo di trovare una condizione necessaria senza esplicitarla. Potete vedere la risposta di DeepSeek qui. Nulla da eccepire, il che da un certo punto di vista è inquietante: d’altra parte afferma di essere il LLM più performante nel test MATH-500.

Secondo il Financial Times, Deep Seek afferma di essere stato addestrato usando 2048 schede grafiche Nvidia H800, con un costo di 5,6 milioni di dollari e 671 miliardi di parameteri: molto meno dei rivali. Sempre secondo il FT, OpenAI ha accusato DeepSeek di avere usato GPT-4 come punto di partenza per distillare i suoi contenuti… comportamenti illeciti un po’ come le accuse di violazione di copyright nei confronti di OpenAI, insomma. Più che altro, quello che io noto è che la mia preoccupazione riguardo al set di training generato automaticamente non è condivisa, e che in questo modo si arriva a un risultato “good enough” con una frazione del costo di addestramento. (Poi, leggendo qui, c’è anche chi sospetta che quei dati siano appositamente sottostimati).

Ovviamente DeepSeek ha scelto di sparigliare il mercato, che fino a questo momento era tenuto saldamente in mano dai soliti noti. Questo significa tra l’altro che la bolla AI (e quella delle utility energetiche…) potrebbe scoppiare molto prima di quanto si pensasse. Peggio ancora, il Post cita il blog Stratechery, dove Ben Johnson ritiene che in DeepSeek ci siano anche migliorie importanti, almeno rispetto all’efficienza (anche se pensa che o1 sia ancora migliore come capacità). Da questo punto di vista continuo a credere che abbiamo raggiunto un plateau, e per passare dal good enough al “good without ifs and buts” :-) occorrerà qualche nuova idea. Staremo ad aspettare: in fin dei conti se ora è più facile entrare nel mondo LLM magari a qualcuno l’idea arriverà…

Aggiornamento: (9:00): Sicuramente se uno non ha fatto un account DeepSeek non vede nulla, non ho fatto prove con un account diverso. Allego quindi screenshot (cliccabili per ingrandire) della conversazione.

186
 
 

OpenAI furioso: DeepSeek potrebbe aver rubato tutti i dati che OpenAI ci ha rubato

"Spiegherò cosa significa tra un momento, ma prima: HAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHHAHAHAHAHAHAHAHAHAHAHAHAHAHAHA 🤣🤣🤣

È ironico che OpenAI, che ha ottenuto grandi quantità di dati in gran parte in modo "non autorizzato" e, in alcuni casi, in violazione dei ToS di coloro da cui li ha presi, ora si lamenti delle stesse pratiche con cui ha costruito la sua azienda."

https://www.404media.co/openai-furious-deepseek-might-have-stolen-all-the-data-openai-stole-from-us/

@aitech

187
 
 

DeepSeek e ChatGPT offrono approcci diversi alla ricerca online. Un test comparativo mostra differenze chiave in velocità, profondità delle informazioni e capacità di comprensione contestuale.

188
 
 

La scorsa settimana, DeepSeek, una startup cinese di intelligenza artificiale, ha annunciato il suo modello di ragionamento R1, una svolta che cambia il mondo dell'intelligenza artificiale. Il modello di DeepSeek eguaglia o addirittura supera la qualità dei principali LLM, ma a una frazione dei costi di formazione e gestione. Ciò ha sostanzialmente mercificato quello che un tempo era il dominio esclusivo dei giganti della tecnologia. Insieme al modello, DeepSeek ha rilasciato un playbook dettagliato che descrive come altri possono replicare il loro successo, abbassando drasticamente le barriere all'ingresso.

Negli ultimi anni, Apple è stata criticata per essere rimasta indietro nelle "guerre LLM". Analisti e giornalisti hanno sottolineato che mentre aziende come OpenAI , Google e Meta hanno investito miliardi nella creazione di modelli linguistici di grandi dimensioni (LLM) all'avanguardia , Apple sembrava essere rimasta in disparte. Infatti, alcuni addetti ai lavori del settore sono arrivati ​​al punto di definire l'approccio di Apple "compiacente". Eppure, a quanto pare, ha appena dato i suoi frutti in un modo che nessuno si aspettava.

Questa svolta significa che Apple può ora sviluppare modelli AI competitivi senza gli investimenti multimiliardari richiesti in precedenza. Restando fuori dalle prime fasi della corsa agli armamenti AI, Apple potrebbe aver risparmiato miliardi.

Apple ha quindi risparmiato miliardi di dollari!

189
 
 

“Il momento per l’umanità più pericoloso di sempre”: L’orologio dell’Apocalisse si è avvicinato alla mezzanotte

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Martedì l’Orologio del Giorno dell’Apocalisse è stato spostato di un secondo verso la mezzanotte, mentre gli

190
 
 

Beati i beoti, perché di essi è la Borsa: DeepSeek ha innescato un rally selvaggio e infondato per alcune azioni cinesi

In Cina, l'hype attorno a DeepSeek ha fatto schizzare alle stelle le azioni di alcune società pubbliche con presunti legami con essa. Il problema: non ci sono prove che queste società abbiano mai investito o collaborato con DeepSeek, per cominciare.

https://techcrunch.com/2025/01/28/deepseek-triggered-a-wild-baseless-rally-for-some-chinese-stocks/

@aitech

191
 
 

AI: ma che succede adesso?

Lavorare per un'azienda che ha deciso di diventare “full-AI” e fa le conferenze virtuali con il digital twin del boss (il quale ha non-scritto il testo insieme ad una AI e si e' fatto fare le slide da copilot) significa che ieri e' cascato un asteroide (dal sapore fritto che e' tipico degli asteroidi cinesi) per via di deepseek. Ma la cosa peggiore e' che nessuno degli espertoni se lo aspettava

Di @uriel sul suo blog

@aitech
RE: keinpfusch.net/api/posts/fhjfh…

192
 
 

Il Lunedì nero di NVIDIA e l’ascesa del “superelaboratore” cinese DeepSeek, mentre l’UE resta a guardare

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
L’app del momento la cinese DeepSeek spopola negli Stati Uniti, superando la gemella ChatGPT e fa crollare le maggiori

193
 
 

USA la forza, Zio Sam! Il fenomeno cinese della IA DeepSeek colpito da un attacco informatico su larga scala

Lunedì DeepSeek ha dichiarato che avrebbe temporaneamente limitato le registrazioni degli utenti "a causa di attacchi dannosi su larga scala" ai suoi servizi.
La startup cinese di intelligenza artificiale ha recentemente scalzato ChatGPT di OpenAI dal suo titolo di app gratuita più scaricata sull'App Store di Apple.

https://www.cnbc.com/amp/2025/01/27/deepseek-hit-with-large-scale-cyberattack-says-its-limiting-registrations.html

@aitech

194
 
 

Un sorprendente progresso dell'intelligenza artificiale cinese chiamato DeepSeek sta facendo crollare le azioni statunitensi

La società ha affermato di aver speso solo 5,6 milioni di dollari in potenza di calcolo per il suo modello base, rispetto alle centinaia di milioni o miliardi di dollari che le aziende statunitensi spendono per le loro tecnologie di intelligenza artificiale.

https://edition.cnn.com/2025/01/27/tech/deepseek-stocks-ai-china/index.html

@aitech

195
 
 

E se gli facessimo analizzare tutti gli estratti conto di tutti ? 😱

196
 
 
sudo apt install codium
curl -fsSL https://ollama.com/install.sh | sh
ollama pull qwen2.5-coder:0.5b

197
198
 
 

E se non ci fossero più “nuovi LLM?”
@aitech - C'è chi ipotizza che gli LLM complessi saranno usati solo per addestrare quelli resi pubblici, e Ciò È Male - Link: https://xmau.com/wp/notiziole/2025/01/23/se-non-ci-fossero-nuovi-llm/

199
 
 

E se non ci fossero più “nuovi LLM?”

@aitech - C'è chi ipotizza che gli LLM complessi s

https://xmau.com/wp/notiziole/2025/01/23/se-non-ci-fossero-nuovi-llm/

200
 
 

E se non ci fossero più “nuovi LLM?”

Ho trovato su Substack questo post di Alberto Romero che mi ha preoccupato parecchio. Riassunto per chi ha fretta: Romero ipotizza che GPT-5 esiste, ma non verrà reso pubblico perché il suo costo computazionale è troppo alto; esso è stato però usato per addestrare i nuovi modelli pubblici, come o1 e il futuro o3. Da dove deriva questa impressione? da quello che è successo con Anthropic (cioè Amazon, se ve lo chiedeste) e Opus 3.5, che è stato ufficialmente cancellato “perché non era così migliore dei modelli precedenti” ma sarebbe stato comunque usato per addestrare il successore del precedente sistema Sonnet 3.5, che effettivamente ha avuto un grande miglioramento nelle prestazioni. Notate il condizionale che ho usato (perché è stato usato nell’articolo). Sono tutte supposizioni.

Romero spiega che il rapporto costi-benefici del nuovo sistema non si è rivelato sufficiente: d’altra parte, se date un’occhiata a questo post, notate come il passaggio da un modello a quello superiore costa – nel senso di quanto si paga per migliaia di token – un ordine di grandezza in più passando da un modello al successivo… tranne che nel caso di o1, dove il costo si riduce. Inoltre il modello di o1 sembra avere un numero di parametri inferiore a quello di GPT-4. L’inferenza di Romero è che o1 è stato addestrato con GPT-5. È vero che il costo computazionale di quest’ultimo sarebbe altissimo, ma è anche vero che l’addestramento si fa una volta sola, e

What you need to remember is that a strong model acting as a “teacher” turns “student” models from [small, cheap, fast] + weak into [small, cheap, fast] + powerful.

Il tutto senza contare che è finito il materiale di pre-addestramento: sempre dall’articolo di Romero,

But overtraining is not feasible anymore. AI labs have exhausted the high-quality data sources for pre-training. Elon Musk and Ilya Sutskever admitted that much in recent weeks

(ok, che lo dica Elonio non significa molto, ma basta fare dei conti spannometrici per accorgersi che questa ipotesi è plausibile.) Tutto bene, allora? Viviamo nel migliore dei mondi possibili e abbiamo trovato un sistema per ridurre l’impronta energetica di questi sistemi? Mica tanto. L’autoaddestramento va benissimo per sistemi dalle regole fisse, come il go. Qui invece abbiamo un sistema statistico. proprio perché sono vent’anni che abbiamo visto che è impossibile sperare di trovare un sistema di regole. Posso immaginare che ci siano tonnellate di correzioni inserite nell’algoritmo, ma autoaddestrare in questo modo dà la certezza che gli errori di base nell’approccio generativo delle risposte si perpetueranno, perché il sistema si dà ragione da solo. Si avrà, solo moltiplicato per un fattore incredibile, l’effetto Wikipedia copycat: qualcuno scrive un testo errato nell’enciclopedia, altri copiano bovinamente quello che c’è scritto, e a questo punto abbiamo la fonte bella pronta e la Verità Errata stabilita una volta per tutte.

Capite perché sono preoccupato?

view more: ‹ prev next ›