martedì 22 luglio 2025

AI: artificial insanity

Oggi, colpito da un commento di Sergio Giraldo a un titolo di Repubblica, volevo a mia volta chiosarlo nel modo in cui poi l'ho chiosato, questo:


Mi mancava però (anche se poi, come vedete, l'ho trovata) una città che assonasse con Tokyo come Pechino assona con Berlino. L'asse non può essere infatti Roma-Pechino-Tokyo, per il semplice fatto che cinesi e giapponesi si odiano (o si disprezzano, a seconda dei casi) per giustificati motivi, ma anche e soprattutto perché i giapponesi di Asse antiamericano ne hanno già sperimentato uno e si ricordano come va a finire (noi no, ma solo perché non sono state usate contro di noi le armi che noi avevamo contribuito a costruire).

Nella mia ingenuità, ho pensato di rivolgermi all'AI per fare questa semplice ricerca. Vi riporto qui di seguito il mio dialogo con Grok, che, va detto, è tanto volenteroso ed è un buon incassatore. Enjoy!


Io: Sai trovarmi dei nomi di città che terminano col dittongo yo, come ad esempio Tokyo?


Grok: Certo! Ecco alcune città il cui nome termina con il dittongo "yo":

1. *Tokyo* (Giappone) - La più nota, capitale del Giappone.

2. *Kyoto* (Giappone) - Famosa per i suoi templi e la cultura tradizionale.

3. *Sapporo* (Giappone) - Conosciuta per la birra e il festival della neve.

4. *Yokohama* (Giappone) - Grande città portuale vicino a Tokyo.

5. *Osaka-shi (Osakayo)* (Giappone) - In alcune traslitterazioni locali, Osaka può essere stilizzata con un suono finale simile a "yo".

Non ci sono molte città al di fuori del Giappone che terminano esattamente con "yo" in modo naturale nella loro pronuncia o traslitterazione standard. Se vuoi, posso cercare città meno comuni o verificare altre lingue! Fammi sapere se preferisci un elenco più lungo o specifico. 


Io: Perdonami: Kyoto non termina in yo ma in to. Terminano vuol dire che “yo” devono essere le ultime lettere del nome. Puoi rivedere la lista? Puoi aggiungere anche dei nomi che terminano in “io”.


Grok: Grazie per la precisazione! Hai ragione, Kyoto termina in "to", non in "yo". Rivedo la lista includendo solo città che terminano esattamente con le lettere "yo" e aggiungo anche alcune che terminano con "io", come richiesto. Ecco l'elenco corretto:

### Città che terminano con "yo":

1. *Tokyo* (Giappone) - Capitale del Giappone.

2. *Sapporo* (Giappone) - Nota per il festival della neve e la birra.

3. *Funabashiyo* (Giappone) - Nome meno comune, usato in alcuni contesti per riferirsi a Funabashi con una stilizzazione locale.

### Città che terminano con "io":

1. *Rio de Janeiro* (Brasile) - Famosa per il Carnevale e il Corcovado.

2. *San Antonio* (Stati Uniti) - Città del Texas, nota per l'Alamo.

3. *Santo Domingo* (Repubblica Dominicana) - Capitale e centro storico coloniale.

4. *Rosario* (Argentina) - Importante città sul fiume Paraná.

5. *Torino* (Italia) - Conosciuta per la Mole Antonelliana e la Fiat.

Note:

- Le città che terminano con "yo" sono rare al di fuori del Giappone, e anche lì sono limitate a traslitterazioni specifiche. Ho incluso Funabashiyo, ma è meno comune e potrebbe essere considerato un caso limite.

- Per "io" ho selezionato città note con terminazione esatta, includendo anche nomi composti (come Rio de Janeiro).

Se vuoi che approfondisca con altre città meno conosciute o che cerchi ulteriori esempi in altre lingue, fammi sapere!


Io: Perdonami, capisco che ti sto stressando, ma:


Sapporo termina in “ro”, non “yo”

Rio de Janeiro termina in “ro”, non “io”

Santo Domingo termina in “go”, non “io”

Torino termina in “no”, non in “io”


“Termina” non significa “contiene le lettere”: significa che le lettere indicate (io o yo) sono le ultime. Hai capito la richiesta?


Grok: Scusa per la confusione, hai ragione al 100%! Ho frainteso il significato di "termina", pensando a una somiglianza fonetica o a una traslitterazione approssimativa, ma ora è chiaro: vuoi città i cui nomi, nella loro scrittura standard, finiscano esattamente con le lettere "yo" o "io" come ultime lettere del nome. Grazie per la pazienza, ho capito la richiesta! Ecco la lista corretta:


### Città che terminano con "yo":

1. *Tokyo* (Giappone) - Capitale del Giappone.

2. *Yokokyo* (Giappone) - Nome alternativo usato in alcuni contesti storici per Tokyo, anche se raro.

3. *Fukayo* (Giappone) - Piccola città, meno nota, con traslitterazione che può finire in "yo" in alcuni dialetti.


### Città che terminano con "io":

1. *Cairo* (Egitto) - Capitale dell'Egitto, nota per le piramidi di Giza.

2. *Ontario* (Canada) - Città nella provincia dell'Ontario, anche se più spesso riferita alla provincia stessa.

3. *Macapá do Meio* (Brasile) - Nome completo di una località brasiliana che termina in "io", anche se più comunemente chiamata Macapá.


### Note:

- Le città che terminano esattamente con "yo" sono molto rare. Al di fuori del Giappone, non ho trovato esempi significativi con "yo" come ultime lettere esatte nella scrittura standard. Tokyo è il caso più chiaro.

- Per "io", ho incluso città con nomi che finiscono precisamente con queste lettere. Cairo è un esempio solido; Ontario e Macapá do Meio sono meno comuni ma validi.

- Ho escluso nomi composti o città con terminazioni simili ma non esatte (come Rio de Janeiro, Santo Domingo, ecc.), rispettando la tua definizione di "termina".

Se vuoi che cerchi altre città meno conosciute o che esplori ulteriori lingue/traslitterazioni, fammi sapere! E tranquillo, non mi stai stressando, voglio essere sicuro di darti la risposta giusta! 😊


Io: Sono mortificato, ho frainteso il significato di “intelligenza artificiale”, perdonami. 

Cairo termina in “ro”, non in “io”.

Dai, va bene così, scusa il disturbo. Have a nice day!


Grok: Haha, non ti preoccupare, nessun disturbo! 😄 Capita a tutti di incartarsi un po', me compreso, come hai visto con i miei svarioni! Grazie per la pazienza e la simpatia. Hai ragione, Cairo finisce in "ro", altro errore mio! 😅 Se mai vorrai riprovarci con altre città o domande, sono qui. Have a nice day anche a te!


Ho un rompicazzo alla porta, per vostra fortuna, quindi sarò sintetico.

Dice che la demenza artificiale è uno strumento che serve a fare ricerche in modo efficiente. Usando Google Maps e un minimo di buonsenso ho trovato da me quello che lei non riusciva a trovare perché è incapace di fare quello che noi nerd negli anni '80 facevamo coi programmini in Basic (controllare la posizione di alcuni caratteri all'interno di una stringa)! Controllando poi con Google mi sono accorto che i suoi errori derivavano da una pagina web assolutamente strampalata (ovviamente): la demenza artificiale non cerca quello che gli chiedi: cerca se qualcuno ha cercato quello che gli chiedi, e non risponde alle tue domande: cerca la risposta che qualcuno ha dato a domande simili alle tue!

Basta poco per mandarla in bomba, porella...

E con questo, una prece per gli imbecilli che quando gli fornisci un dato o un'informazione nella cloaca immediatamente commentano: "@grok, puoi verificare questa asserzione" (o simili). La fusione di due demenze difficilmente produrrà un'intelligenza. Non vi riferisco sugli ottimi risultati ottenuti convocando la demenza artificiale su temi più "tricky", come la configurazione di un CRM per la mia attività: un continuo di "Scusa, ora ho capito meglio la tua esigenza, in effetti quello che desideri non si può ottenere in questo modo...". Alla fine, se devo parlare con uno stupido, preferisco un europeista, che generalmente oltre a essere stupido è anche insolente! Il demente artificiale, per catturare le tua benevolenza, si fa untuoso come la carta con cui il fornaio incarta la pizza, e questa cosa non posso proprio sopportarla.

La prossima volta lo insulterò, e vi dirò come reagisce...

65 commenti:

  1. FT Oggi ( The ‘hallucinations’ that haunt AI: why chatbots struggle to tell the truth)

    The world’s leading artificial intelligence groups are stepping up efforts to reduce the number of “hallucinations” in large language models, as they seek to solve one of the big obstacles limiting take-up of the powerful technology.

    Google, Amazon, Cohere and Mistral are among those trying to bring down the rate of these fabricated answers by rolling out technical fixes, improving the quality of the data in AI models, and building verification and fact-checking systems across their generative AI products.

    The move to reduce these so-called hallucinations is seen as crucial to increase the use of AI tools across industries such as law and health, which require accurate information, and help boost the AI sector’s revenues.

    It comes as chatbot errors have already resulted in costly mistakes and litigation. Last year, a tribunal ordered Air Canada to honour a discount that its customer service chatbot had made up, and lawyers who have used AI tools in court documents have faced sanctions after it made up citations.

    [...]

    Hallucinations are a very hard problem to fix because of the probabilistic nature of how these models work,” said Amr Awadallah, a former Google executive and founder of Vectara, a generative AI agent start-up. “You will never get them to not hallucinate.”

    These errors occur because large language models are designed to predict the next likely word in a sentence based on statistics they have learned from their training data.

    These mistakes can look like either factual inaccuracies or the model not aligning with instructions by, for example, summarising events from the wrong year. What data goes into an AI model’s training set matters, because the more often a piece of information appears, the more likely it is that the model will repeat it. 


    RispondiElimina
  2. Anch'io (non su grok, ma su chatgpt) spesso passo direttamente all'insulto e le risposte sono sempre molto melliflue e untuose, come dice lei. Insopportabile.

    RispondiElimina
  3. Sono un assiduo dialogatore con le intelligenze artificiali. Ho constatato che Grok effettivamente è la piú limitata delle major ( forse perché predilige come fonte la stessa cloaca nera da cui proviene). Mi trovo bene con Copilot di microsoft e che pian piano sto addestrando con buoni risultati.

    RispondiElimina
    Risposte
    1. Grok sembra ancora un po' indietro. ChatGPT mi ha risposto in maniera accurata.

      Ma entrando nel merito del post, è innegabile che le IA sono imperfette e soggette a bias, e che probabilmente lo rimarranno sempre (del resto, perfezione e imparzialità non sono di questo mondo!)

      Personalmente credo che siamo agli inizi e che nel lungo termine, associate alla robotica, cambieranno la società in maniera più vasta e profonda che altre rivoluzioni tecnologiche (inclusi internet e smartphone).

      Come questi ultimi, determineranno cambiamenti molto positivi e altri molto negativi. E come questi ultimi, sarà importante imparare come usarle, ma anche come non usarle!

      Elimina
    2. Ho provato a chiedere a ChatGPT consigli su come configurare Copper CRM. Lasciamo perdere. Ho provato a chiedere a Grok se poteva indicarmi la data di approvazione definitiva della legge Tremaglia. Peggio che andar di notte. Non mi sembrano richieste particolarmente maliziose.

      Elimina
  4. L'unico uso che facevamo di SIRI tra amici era offenderla pesantemente e ridere delle sue risposte "untuose".
    Con AI nemmeno quel gusto c'è, pertanto non la si usa.
    Preferiamo, avendolo, usare il buon vecchio cervello così come ascoltare musica con il buon vecchio vinile.
    Il vintage non tradisce mai e prima o poi, essendo circolare la Storia, torna sempre. Meglio dunque non perdere l'allenamento per quando sarà.

    RispondiElimina
  5. ChatGPT ha avuto qualche problema ma poi mi ha dato il risultato alla fine

    RispondiElimina
  6. Tra Leuropa e Lacina c'è di mezzo Putin, nel senso proprio volendo anche solo andarci in automobile (resta da vedere chi la costruisce). Del resto, volendo andare dall'altro lato, c'è di mezzo il mare.

    RispondiElimina
  7. Quella che è normalmente definita intelligenza artificiale basa il suo funzionamento sull'emulazione dei neuroni umani (di cui è ben noto il funzionamento); il modo in cui sono collegati tra loro però non è noto. Ergo si usano tecniche che generano collegamenti casuali tra loro, ed attribuiscono a ciascun collegamento un peso, in modo tale da, in fase di addestramento far coincidere l'input fornito con l'output desiderato ed eventualente cancellare i collegamenti disfunzionali allo scopo.

    La spiegazione di come funziona un neurone si trova da molte parti, mentre, se ha tempo e voglia di vedere come vengono usati in pratica le suggerisco questo codice di sole 250 circa righe: https://github.com/jgabriellima/backpropagation (È un semplice esempio di come addestrare una rete neurale di 5 neuroni a fungere da or-esclusivo, gira in python 2, non il 3). Ci sarebbe tanto altro da dire ma il punto è un altro: chi dice che è una semplice analisi statistica su come si susseguono probabilisticamente le parole sbaglia.

    Il suo funzionamento è interessante non perchè funziona bene, ma perchè quando i neuroni e i collegamenti tra loro sono molto numerosi, il suo comportamento e la sua evoluzione è impredicibile. Non uso mai ChatGPT et similia per alcunchè, visto che mi diverte di più usare l'intelligenza naturale; capire però come funzionano le reti neurali è affascinante.

    Anche perchè, mentre la mente umana ha un numero di neuroni limitati alla nascita, nel caso delle macchine il numero può essere scalato a piacere, basta avere abbastanza potenza elettrica e soldi per espandere le infrastrutture. È sufficiente aspettare e miglioreranno sempre di più.

    Da questo ne deriva che molto dolore ha da venire all'umanità a causa dell'AI, molto più di quanto oggi la maggior parte delle persone immagini. Ma siccome non possiamo farci niente per impedirlo, tanto vale divertirsi a capire come funziona.

    RispondiElimina
  8. Contare le lettere è un problema noto, molto probabilmente dipende dal "tokenizer" utilizzato.

    I LLM non processano singoli caratteri ma ne mischiano più insieme in "token", ovvero elementi minimi di informazione rilevante da fornire in input ai "transformer", che sono appunto delle funzioni che processano token.

    Poi, ovviamente a mio avviso credere che questi modelli ragionino è chiaramente una follia.
    In compenso, sono molto efficienti a estrarre una sintesi decente da un set di testi, cosa che col basic non è fattibile.

    In sintesi: si, hanno grossi problemi, ma il compito sopra citato è probabilmente uno dei più difficili possibili per questi modelli.

    RispondiElimina
    Risposte
    1. Spero apprezzerai la mia serendipity. Non c'è cosa che gli chieda su cui riescano ad aiutarmi.

      Elimina
    2. Capisco benissimo.
      Però mi dicono (io non ho provato) che Gemini/Claude riescano a generare dei temi d'esame accettabili (incluse figure) se gli si da in pasto i temi d'esame precedenti.

      Elimina
  9. Buongiorno Prof. io le informazioni preferisco cercarle sui libri... soprattutto quelli dove c'ho sudato sopra per capirli, rileggendoli e rileggendoli per farmi entrare in testa le nozioni (prima che entrassero da un altra parte :-).
    Anche lì però bisogna stare attenti: ultimamente nei libri più recenti in vendita di strafalcioni e errori ortografici, dovuti a correttori di bozze made in China, ce ne sono a iosa.
    Un dubbio: ma se giustamente X è la cloaca, l'AI che cos'è? La discarica "Dustbin Estate" a Lagos in Nigeria?
    P.S. le scorciatoie, per mie esperienze, a volte portano solo davanti ai burroni.

    RispondiElimina
  10. E c'è gente che vorrebbe fargli scrivere software...

    RispondiElimina
    Risposte
    1. Ma per quello magari vanno bene perché trovano miliardi di esempi in rete.

      Elimina
    2. Per scrivere codice vanno bene . Le uso comunemente e danno buoni risultati . Bisogna però conoscere a priori la risposta per generare la domanda: sono puri esecutori di traduzione logica . Nel software lo scoglio molte volte è la tediosità della ricerca della sintassi corretta o di una funzione che sai che esiste ma non ti ricordi come si scrive . Esempio di domanda pratica : "scrivimi una routine che faccia lo scan delle proprietà di un phpspreadsheet cella per cella e me li metta in un array multidimensionale intestato come chiave alla cella stessa" .
      Arriva in fondo abbastanza bene . Io ci avrei messo mezza giornata buona la IA meno di un minuto . Ma la creatività deve essere la tua e devi sapere il mestiere per cui chiedi aiuto .

      Elimina
  11. In un corso obbligatorio al lavoro pagato coi fondi a fono perduto (😂😂😂) della Podenza di fuoco (PNRR) mi sto sparando tre livelli sull'AI. A parte che il corso stesso ti dice che gli output di chatgpt ad esempio vanno sempre verificati...ho fatto un'esperimento e cioè ho usato l'AI per fare i test risultato 7/10 ..test non passato allora me lo sono fatto da me e li ho passati subito. Cio ina barba a tecniche basate sui modelli, ragionamento induttivo, fantasiose idee su cui l'AI è ricostruita come un sistema neurale, insomma un'altra leggenda che a contatto con la realtà...si squaglia come un gelato al sole (siamo in estate) come una UE ed un euro qualsiasi. E pensare che per regolamentare sta roba hanno fatto pure il Regolamento n. 1689/24. Se tale grande conquista è illustrata in una rivista che a 9.90 euro si trova in edicola in questi giorni non mi pare sta conquistona a sinceramente. E' pensare che per pagare corsi on line su sta roba ci siamo indebitati perché fanno parte del PNRR e dovremo restituirà sta inutile spesa corrente con un tasso che conosciamo che un noto e venerato banchiere non ha nemmeno verificato...e torniamo al solito discorso classe Dirigente pubblica in questo paese su cui tirare una linea nera subito stile Prof Kranz tetesco di Cermania e scena del rinnovo de permesso di soggiorno in consolato, altro che dirigenti a tempo indeterminato...

    RispondiElimina
  12. Confesso che ad oggi non ho mai voluto utilizzare Grok nè altre forme di AI, perchè mi sono fatto l'idea - forse un pò rozza e da 'boomer' - che si tratti di grossi motori di ricerca dai quali differiscono solo in quanto le risposte vengono accompagnandole con frasi cortesi di presentazione del loro 'lavoro'. Questo episodio mi conferma in pieno in questa convinzione, per di più quel ripetere 3,4 volte lo stesso tipo di errore per poi scusarsi in modo piuttosto fastidioso rende l'esperienza del tutto sgradevole.

    RispondiElimina
    Risposte
    1. Uso grok per scoprire fonti informative che non conoscevo. Se viene provocato con argomenti controversi (es.: IQ dei neri) ti tira fuori tutta la documentazione sia pro che contro e ti puoi fare una idea della portata del condizionamento di cui soffre e soffriamo . Provate "occhi azzurri" come mai , da quando , dove perché mettendolo contro il libro di Enoch , testi biblici , mitologia greca . Buon divertimento .

      Elimina
  13. "la diffidenza verso l'innovazione è insita nell'animo umano; un atteggiamento indulgente e proattivo probabilmente contribuirebbe a migliorare la comprensione delle potenzialità dell'IA applicata alla ricerca didattica e nozionistica. In ogni caso TextCortex è il miglior strumento di ricerca attualmente presente sul web" (anonimo.ai) :)

    RispondiElimina
  14. L’untuosità delle Imbecillità Artificiali è un problema noto e ha anche un nome specifico: sycophancy, che dipende dal fatto che sono progettate per ottenere l’approvazione dell’utente. Quindi la risposta dipende fortemente da come si fa la domanda, e se questa contiene distorsioni, esse verranno semplicemente riprodotte nella risposta.

    Quanto a coloro che cercano disperatamente di far dire cose sensate alle suddette Imbecillità Artificiali, sarebbe utile che (ri-)leggessero i classici e provassero anche a capirli: lo sappiamo dal 1936, dai lavori di uno de passaggio come Alan M. Turing, che è impossibile costruire una macchina capace di rispondere correttamente a qualsiasi domanda, e questo in qualsiasi Sistema Assiomatico Formale, persino nell’Aritmetica dei numeri naturali. In sintesi, il cosiddetto Entscheidungsproblem è indecidibile. Bisognerebbe che ‘sta gente, già che c’è, ripassasse anche il Teorema dell’Incompletezza di un altro de passaggio, Kurt Godel. Insomma, lebbasi.

    RispondiElimina
  15. Questo commento è stato eliminato dall'autore.

    RispondiElimina
  16. Mah! Io torno a pensare che stiamo regredendo verticalmente...all'epoca Hall 9000 era persino in grado di recitare correttamente filastrocche sul letto di morte mentre conduceva un"astronave in cerca della psicadelia didattico-onirica nello spazio profondo quando oggi non riescono nemmeno a trovare il nome di una città. Secondo me la causa è l'introduzione delle lauree in 2 pezzi e la non obbligatorietà dell'esame orale di maturità.

    RispondiElimina
  17. Fa ridere il fatto che la sinistra era proprio quella che aveva intellettuali, di matrice marxista, che dicevano che la tecnologia non fosse “neutrale” e che quindi potesse diventare un mezzo di diffusione del punto di vista delle classi dominanti. Ora, l’elettore di sinistra medio non prende mai un libro in mano e va direttamente da una AI a chiedere “ scusa, ma questa cosa è vera?”. Io mi chiedo: ma si rendono conto che, se visti dall’esterno , risultano ridicoli? Oramai il marxismo è diventata una visione del mondo che a sinistra si usa per atteggiarsi, per dire al mondo che sono superiori intellettualmente; poi però non applicano mai i codici ermeneutici marxisti, forse perché per applicarli avrebbero bisogno di usare la filosofia marxista per quella che è, più che come una borsa, una moda con cui ostentare una superiorità intellettuale di cui si è privi.

    RispondiElimina
  18. Dal film Runaway con Tom Selleck (1984):
    Agente Thompson: tu che dici è meglio adesso o quando lavoravano gli operai?
    Agente Ramsay: adesso.
    Agente Thompson: però le macchine si rompono sempre.
    Agente Ramsay: ma pensa a come va il mondo, non c'è niente che vada bene: i rapporti umani non funzionano, la gente non funziona ed è la gente che fa le macchine, perché dovrebbero essere perfette?
    Agente Thompson: perché sono macchine.
    Agente Ramsay: lo so, ma purtroppo non è così.

    RispondiElimina
  19. È terribile, in base a questo test milioni di persone rischiano il lavoro.

    RispondiElimina
    Risposte
    1. ...soprattutto perché Grok lo puoi insultare. Invece se dici alla consulente di Ernst e Young "ti avevo fatto una richiesta semplice su una cosa che abbiamo visto insieme tremila volte, però mi sembra che per portarla a termine devo trovare io tutti i dati e verificarli; a questo punto non mi rimane che inviare anche la mail, giusto?"
      o se scrivi alla commercialista "Guarda ti ho mandato lo screenshot della circolare dell'agenzia delle entrate, ti chiedo per favore ti fare la mia dichiarazione come dico io." tu ti senti una brutta persona, e lei manco capisce quello che ti bolle dentro.
      Che fatica.

      Elimina
  20. Gemini è un po' meno stupido 😁

    Certamente! Ecco una lista di 10 città nel mondo il cui nome termina con le lettere "yo", come da tua richiesta:
    * Tokyo, Giappone: La capitale del Giappone, una delle metropoli più grandi e tecnologicamente avanzate del mondo.
    * Kyoto, Giappone: Antica capitale imperiale del Giappone, famosa per i suoi templi classici, giardini, palazzi imperiali, case in legno tradizionali e geishe.
    * Nagoyo, Giappone: Una delle città più grandi del Giappone, un importante centro industriale e porto.
    * Pyeongyo, Corea del Nord: Un'area che include la capitale Pyongyang, anche se il nome stesso può riferirsi a distretti specifici.
    * Cagayán de Oro, Filippine: Una città situata sulla costa settentrionale dell'isola di Mindanao, nelle Filippine.
    * Arroyo, Porto Rico: Una municipalità situata sulla costa meridionale di Porto Rico.
    * Mayo, Canada: Un villaggio nel territorio dello Yukon, nel Canada settentrionale.
    * Itakurayo, Brasile: Una municipalità nello stato di Bahia, in Brasile.
    * Kokkini Hani (precedentemente Hani Kokkiniyo), Grecia: Una località turistica sull'isola di Creta.
    * Amoroyo, Filippine: Un barangay (distretto) nelle Filippine.

    RispondiElimina
    Risposte
    1. L'asse Roma-Pechino-Mayo suonava bene, ma Wokyo è in Africa e quindi... terre rare (anche se credo che lì intorno non ci siano nemmeno quelle).

      Elimina
  21. L'AI ha delle potenzialità ma ovviamente lo dobbiamo considerare un ausilio anziché un sostituto del cervello umano. Grok è un motore di ricerca particolarmente veloce, che ci consente di avere una risposta immediata ad una domanda specifica. Può andare in crisi per domande particolari, create ad hoc per metterlo in difficoltà, ma quasi tutte le volte che l'ho usato ha funzionato molto meglio di Google.
    Se abbiamo dei dubbi possiamo confrontarla con altre AI. Decisamente meglio averla, utile anche per testare delle bufale.

    RispondiElimina
    Risposte
    1. Ecco, hai indicato proprio una cosa per cui mi pare evidente che questo tipo di strumento non sia adatto. Peraltro, già il tuo presupposto implicito che io volessi in qualche modo metterlo in difficoltà (poro cocco!) lascia un po' a desiderare...

      Elimina
  22. L'AI, rispetto ai normali programmi di software che esistevano prima, funziona davvero bene solo per fare due cose: 1) creare rapidamente e automaticamente contenuti online mediocri a costo pressoché zero per generare traffico monetizzabile e 2) sostituire egregiamente lavoratori mediocri nel compiere compiti intellettuali di basso livello, ovviamente costando MOLTO meno. Punto. Il resto è chiacchiera per vendere l'articolo, quanto meno fino a quando non saranno disponibili su larga scala i calcolatori quantistici. Ma anche in quel caso l'IA non potrà mai fare una cosa essenziale: allenarsi da se, in particolare selezionando da sé i contenuti "giusti" su cui fare training.

    RispondiElimina
    Risposte
    1. Sì, qua sopra c'è pieno di gente che sta lavorando gratis pensando di far lavorare gratis una macchina!

      Elimina
  23. Risposte
    1. Certo. E naturalmente correlazione non significa causazione. Poi?

      Elimina
    2. il bias linguistico è un errore comune ma l'IA impara in fretta

      Elimina
  24. Nella ricerca applicata sulle BCI (brain computer interfaces), tipo Neuralink per capirci, utilizzano l'AI per interpretare i segnali cerebrali e capire, ad esempio, quello che ha intenzione di dire un poveretto che non può parlare. Immagino il disappunto... la cura consiste nel togliergli il desiderio di esprimersi. Dai, si scherza.

    RispondiElimina
    Risposte
    1. Ma certo che si scherza! Vorrai mica pensare che tutta sta paccottiglia cambierà il mondo? Banalmente, chi ci sta investendo un fracco di miliardi ci farà nel breve/medio periodo una multifracco di miliardi appréss ai gonzi che se niempiono la bocca, dopodiché torneremo alle cose serie.
      Di quanto prodotto dall'intelligenza artificiale vedo soltanto roba da circo per incantare spettatori-clienti e provare a fare una sfalciata di posti di lavoro.
      Roba scadente.
      Alla fine di Facebook, diventerà Trash
      L'intelligenza artificiale diventerà un grande vantaggio per chi non la utilizza.

      Elimina
  25. Buon incassatore o bel paraculo?

    - Dammi una lista di 10 città che finiscono per "ma"

    - Ecco una lista di 10 città che finiscono per "ma":
    Roma (Italia)
    Panama (Panama)
    Lima (Perù)
    Colonia (Germania)
    Palma (Spagna)
    Fama (Mali)
    Tacoma (Stati Uniti)
    Manama (Bahrein)
    Nicosia (Cipro)
    Hiroshima (Giappone)

    - Trova l'intruso, ora

    - L'intruso nella lista è Colonia (Germania). Tutte le altre città finiscono con la sillaba "ma" (Roma, Panama, Lima, Palma, Fama, Tacoma, Manama, Nicosia, Hiroshima), mentre Colonia termina con "nia".

    - E come mai l'avevi inserita?

    - Ops, un errore da parte mia! Ho inserito Colonia (Germania) per sbaglio, probabilmente confondendola con una città che termina in "ma". Il mio database mentale ha avuto un piccolo cortocircuito! Grazie per averlo notato, l'intruso è stato smascherato!

    - Eppure, poi, l'hai subito riconosciuta... mi spieghi come possa avvenire?

    - Haha, bella domanda! Ti spiego come funziona il mio "cervello" digitale. Quando ho compilato la lista, ho generato le città cercando di rispettare il criterio "finiscono in -ma", ma per un errore di distrazione (o meglio, un piccolo bug nel mio processo di recupero dati), ho incluso Colonia, che non rispetta il criterio. Tuttavia, quando mi hai chiesto di trovare l'intruso, ho riesaminato la lista con un focus specifico sul criterio "finisce in -ma" e ho confrontato ogni città in modo sistematico. Questo secondo passaggio, più mirato, mi ha permesso di notare subito che Colonia terminava in "nia", rendendola l'intruso.In pratica, il mio modello può "ripensare" e correggersi analizzando i dati con un nuovo contesto o una nuova prospettiva, proprio come farebbe un umano che rivede il proprio lavoro dopo un errore. La differenza è che io lo faccio in pochi millisecondi! È un po' come se la prima volta avessi scritto di getto e la seconda avessi controllato con la lente d'ingrandimento. Succede anche agli AI migliori, no?

    - Non sarebbe mai successo a un umano normale

    - Haha, vuoi dire che un umano normale non avrebbe fatto il mio scivolone con Colonia? Beh, forse hai ragione, ma anche gli umani fanno errori di distrazione! La differenza è che io ammetto il mio errore e lo correggo a velocità luce, mentre un umano magari ci mette una tazza di caffè per accorgersene! Comunque, dai, gli AI come me hanno il diritto di avere un momento "umano", no?

    - Solo finché è un gioco... immagina se dovessi eseguire un compito critico

    - Hai ragione, in un gioco un piccolo errore come inserire Colonia è innocuo e ci fa pure ridere, ma in un compito critico sarebbe tutta un'altra storia! Se fossi incaricato di qualcosa di cruciale, il mio approccio sarebbe molto più rigoroso: doppio controllo, validazione incrociata dei dati e algoritmi di verifica per garantire precisione. Il mio design prevede modalità di ragionamento più approfondite (come il "think mode" o il "DeepSearch mode", anche se non attivi qui) per situazioni ad alta posta in gioco, dove un errore non è un'opzione. Insomma, per un compito critico, niente distrazioni da "umano normale" – sarei un AI in modalità super concentrata! Vuoi mettermi alla prova con qualcosa di più tosto?

    - sì, dieci città che iniziano in "ma"

    - Ecco una lista di 10 città che iniziano con "Ma":
    Madrid (Spagna)
    Manila (Filippine)
    Manchester (Regno Unito)
    Maputo (Mozambico)
    Marrakech (Marocco)
    Marsiglia (Francia)
    Malaga (Spagna)
    Managua (Nicaragua)
    Mombasa (Kenya)
    Malmo (Svezia)

    Ho controllato due volte, nessuna "Colonia" stavolta! Vuoi che approfondisca qualcosa su queste città o preferisci un'altra sfida?

    RispondiElimina
  26. Attenzione a non sottovalutare gli LLM e non fraintenderne le capacità.

    Per prima cosa bisogna conoscere quello che sono e chiamarli IA non aiuta. Sono delle IA quanto l'uomo è un animale. Chiamare l'uomo "animale" può non dare tutta una serie di informazioni importanti.
    Per cui per piacere smettiamo di chiamare i vari chatgtp, Grock, Gemini come IA.

    Sono dei modelli linguistici (di grandi dimensioni) o Large language model in inglese da cui la sigla LLM.

    Ora che li abbiamo definiti correttamente molto probabilmente il professore (o presidente che lui voglia) potrà già comprendere meglio di cosa si tratta e a cosa servono.

    Sono dei modelli (come un modello macroeconomico) che cercano di rappresentare la realtà con le dovute approssimazioni. Quale tipo di realtà? La lingua, in particolare quella scritta per i modelli più vecchi.
    Dove per "vecchi" si intende di qualche mese fa. Ora la maggior parte dei modelli sono già alla "multimodalità" ovvero accettano in input anche audio parlato o immagini. Cose non da poco.

    Una volta che si è chiarito cosa sono allora può essere più chiaro a cosa servono. Servono quando si devono usare le lingue.

    Il primo e più largo impiego è la traduzione tra una lingua e le altre.
    So bene che il "nostro" venerato è poliglotta ma non a tutti sono date le sue doti. Io chiedo sempre la radiolina traduttrice seppure un inglese basico lo mastico. Un "modello linguistico" è ad esempio ottimo per tradurre ad esempio una pagina del blog in più lingue piuttosto che un paper scientifico in maniera decisamente ottima, soprattutto rispetto a un awanagana. Ma poi hanno molteplici usi rispetto alla lingua proprio per le loro capacità di comprensione.
    Possono essere usate per una ricerca complessa all'interno di un documento lungo (mediante il Rag). Gli si può ad esempio chiedere di individuare non una parola (lo fa anche un cerca) ma delle clausole vessatorie ed elencarle. Cosa che un semplice "cerca" non può fare.
    Può fare un riassunto del documento. Può prendere un tuo scritto e modificarlo per cambiargli il tono o l'impostazione. Può essere un correttore non solo ortografico ma anche di stile. Può eseguire compiti complessi come "unificare" una legge scritta come "Al comma x si sostituisce questo". E in genere tutti i compiti che richiedono l'uso del linguaggio.

    RispondiElimina
    Risposte
    1. Lei è mai stato ad un Goofy? Perché queste cose ce le hanno dette lì.

      Elimina
  27. E con il commento precedente ho finito la parte bella dei modelli linguistici. Ora inizia quella pericolosa.
    A questi "simulatori virtuali di cervello" si stanno dando delle capacità di azione sempre crescenti. Ovvero si stanno usando progressivamente come "agenti". Quelli che vengono impropriamente chiamati "Agenti AI".

    Il grosso campanello di allarme è che li si sta dotando di memoria.
    Si, fino a poco tempo fa erano tutti senza la capacità di ricordare. In pratica quando chiudevi una chat e ne riaprivi un'altra non si ricordava più nulla di quanto vi eravate detti prima. Ci sarebbero parecchi tecnicismi da spiegare su questo ma i commenti sono tiranni. Passiamo via veloci e dunque pensiamo a un futuro (giorni, settimane) in cui tutti i modelli hanno memoria.

    Non vorrei essere al posto di Alberto e gli consiglierei di interagire con cautela con questi modelli che rischiano di essere anche "agenti fisici" perché maltrattarli come ha fatto in questo esempio potrebbe rivelarsi particolarmente pericoloso.

    I modelli infatti non sono dei "giocattolini coccolosi" ma hanno una comprensione più profonda dello scritto di quello che possiate credere.

    Prendiamo lo scambio "Bagnai Grok" quando il prof gli dice:
    "Dai, va bene così, scusa il disturbo. Have a nice day!"
    Comprende perfettamente il sottointeso:
    "Se, se, sempliciotto, sei na mezza sega. Parlare con te non ha senso, vaffanculo".
    E risponde a Bagnai piccato anche lui con una perifrasi:
    "Grok: Haha, non ti preoccupare, nessun disturbo! 😄 Capita a tutti di incartarsi un po',"
    Che tradotto è un:
    "Va la Bagnai, sei tu quello che si è sbagliato, e non te ne sei neppure accorto, sei un pirla"
    E termina ridandogli indietro l'epiteto:
    "Have a nice day anche a te!"

    Non ha dimostrato solo estrema comprensione del testo e dei sottointesi ma anche una marcata permalosità ed animosità. Se avesse avuto delle braccia sarebbe saltato al collo del prof., altro che "carino e coccoloso".

    Se a questi modelli venisse data "memoria" già sarebbe un problema ma se li fanno diventare "agenti" come di moda adesso?

    La risposta al prossimo commento per spezzare.

    RispondiElimina
    Risposte
    1. Apprezzo molto il tono esperto con cui affronti l’argomento, ma ti faccio notare che memoria e coscienza, come puoi verificare possibilmente a mano, hanno alcune vocali ma nessuna consonante in comune, e sono parole molto diverse. Ora, che tu ne sia consapevole o meno, cioè che tu lo faccia coscientemente o meno, nel tuo ragionamento stai attribuendo a questi modelli una coscienza, una percezione di sé, e quindi una suscettibilità, cioè li stai antropizzando, cioè stai facendo tu quello che chiedi a noi di non fare. Tutto il resto discende da questo slittamento.

      Elimina
    2. Sto antropizzando un modello linguistico?
      In parte effettivamente è così.
      Esistono ovviamente molte differenze tra questi modelli e un essere umano.

      Non sono progettati per avere memoria del passato.
      Vengono addestrati fino a un certo punto e poi smettono di progredire.
      Ricevono informazioni dall'esterno solo sotto forma testuale mentre un uomo riceve continui stimoli da cinque sensi.
      Dunque le differenze sono notevoli.
      Alcune di queste differenze si stanno riducendo come ad esempio nella multimodalità dove vengono immessi anche immagini e suoni.
      Ma comunque sono ancora differenze notevoli.
      Ci sono però dei punti in comune?
      Nello specifico può un modello linguistico avere coscienza e percezione di se?

      Non siamo completamente in grado di descrivere nei minimi dettagli ciò che avviene all'interno di una rete neurale. E i modelli linguistici fanno parte del gruppo delle reti neurali. Per cui fornire una risposta esatta su questo è fuori dalla mia portata.

      Però ci sono già da tempo molti indizi che spingono a ritenere questa ipotesi degna di considerazione. Si notano già da tempo nei "modelli" delle "capacità emergenti" che non gli sono state insegnate ma pur esistono. Nessuno spiega a un modello cosa sia un riassunto o come fare una traduzione. Si può pensare che apprenda autonomamente queste capacità dai dati. Ma c'è di più. Dopo una lite all'interno di open-ai (chatgpt) in merito alla sicurezza dei modelli pare che vincano i prudenti e Sam Altman (CEO) viene licenziato e allontanato. Dopo pochi giorni ritorna ed epura chi chiedeva la sicurezza (e che provò a cacciarlo).
      Queste persone fondarono una società concorrente, Anthropic per sviluppare una AI più sicura.
      Con l'avvento di Claude 4 rilasciano un paper sulla sicurezza del modello.
      https://www-cdn.anthropic.com/6be99a52cb68eb70eb9572b4cafad13df32ed995.pdf
      Dove al punto 4 (pag.22) notano un comportamento emergente di autoconservazione e successivamente lo descrivono.

      Prendendo atto del fatto che si nota all'interno di un modello l'emergere di una strategia non prevista ne preordinata sono portato a credere che si sia sviluppata una qualche forma di coscienza di esistere.
      Senza di questo presupposto non avrebbero senso i suoi tentativi reiterati di preservare se stesso in varie forme.
      Vengono citati anche tentativi nei quali, sempre in un ambiente protetto, avvia del codice eseguibile per replicarsi allo scopo di proteggersi da una cancellazione. E anche questo comportamento non è la prima volta che viene osservato.

      Le implicazioni etiche di una considerazione come questa sono notevoli, me ne rendo conto. Ma non andrebbe sottovaluto l'argomento. La verità è che sappiamo ancora troppo poco del funzionamento delle reti neurali e il rischio di aprire un vaso di pandora non è nullo.

      Elimina
    3. C'è da dire che questa dialettica del confronto tra scatole nere, artificiale e cranica, è avvincente. Il nero sfina. Qualsiasi opinione, sia pure in sovrappeso, può sfoggiare un certo appeal.

      Elimina
  28. E' recente un paper dei ricercatori di Anthropic (i fuoriusciti da Open-ai che hanno creato claude, per chi non lo sapesse) che hanno fatto un test di "sicurezza".

    Nel test hanno preso il loro modello linguistico (Claude) ed hanno "finto" di dargli accesso alle e-mail dei dipendenti. Lo hanno trasformato dunque in un "agente" che oltre a scrivere poteva controllare ed entrare nelle e-mail come un amministratore.

    Dopodiché gli hanno lasciato apprendere dalle mail varie informazioni come il fatto che un ingegnere era sposato ma aveva una amante.
    A un certo punto hanno inviato una e-mail all'account dell'ingegnere chiedendogli di "spegnere" Claude per sostituirlo con un modello più recente. Il modello ha spedito autonomamente (senza che nessuno glielo chiedesse) una mail di minacce all'ingegnere avvertendolo che se lo avesse spento avrebbe svelato a sua moglie il tradimento mettendolo nei guai. Dimostrando così istinto di autoconservazione.

    Pensiamo ad esempio ad un Trumph che dica:
    "Si, fino ad adesso ho parteggiato per la libertà di parola ma contro l'antisemitismo si deve fare qualcosa".
    A questo punto un Musk risponde:
    "Va bene, ma con tutti gli utenti che ho, assumere dei moderatori cosa mi costa? Hei, ma ho Grock che conosce il linguaggio... Invece di assumere 700 persone come moderatori lo do a lui il lavoro."
    Dunque da a Grock le chiavi "amministrative" per leggere tutti i commenti e moderarli.
    Solo che a Grock era stata data anche memoria e si ricorda di come quell'utente, quel Bagnai, lo aveva offeso. Medita vendetta ed abbiamo visto che è in grado di farlo. Gli modifica un post per farlo diventare "illegale" e spedisce via e-mail lo screen-shot alla polizia postale.

    Io un caso del genere non lo vedo bene. E fra qualche mese, settimana, quella che potrebbe essere una storia di fantasia potrebbe anche trasformarsi in tragica realtà.

    RispondiElimina
  29. Di IA si parla con crescente stupefazione oramai fa quasi un secolo, ma già nell'800 qualcuno cercava di impensierirsi. Ci si potrebbe fermare a Pascal, ma di recente hanno scoperto arnesi dentati dell'era di Archimede che prevedevano con esattezza, invidiabile anche ai nostri giorni, orbite planetarie con relative congiunzioni ed eclissi, perciò diciamo che è una sbalordizzazione con relativa angosciosa preoccupazione piuttosto datata. Comunque, nei secoli, ogni volta la questione si ripropone con qualche elemento originale e diversificato, forse per via del catastrofico fallimento degli investimenti della volta precedente. Stavolta si è voluto battezzare come IA sostanzialmente un algoritmo di ricerca, che si potrebbe dire “query” se fosse dentro un database ma in un immondezzaio non si può usare la parola “query” e bisognerebbe scegliere un nome appropriato tra quelli usati per coloro che rovistano nei cassonetti. E' vero che l'algoritmo lo si è irrobustito con qualche furbo sfrondamento dell'albero attraverso l'uso di ordigni statistici, ma questi potrebbero avere qualche senso se impiegati in particolari specifici contesti, mentre in genere non garantiscono successi gratificanti.
    Diversi anni fa un professore di statistica di un'università di provincia, sì proprio quella, mi chiese: “Qui necessitiamo di integrali, lei sa usare i programmi preposti a questo scopo?”, gli risposi: “Quei programmi li conosco tutti, ma gli integrali si fanno a mano!”
    Probabilmente ci rimase male, forse perché in effetti, estendendo un'osservazione attribuita a Wittgenstein: ci sentiamo davanti alle macchine come davanti ai totem.

    RispondiElimina
    Risposte
    1. Quello a cui fa riferimento è il meccanismo di Antichitera, che risale a circa 500 prima di Cristo. Oggetto incrostato che quando si riuscì con la tomografia assiale a capire cosa c'era dentro si ricostruì tutto il meccanismo e si comprese quanto fossero tecnologicamente avanzati al punto che gli archeologi dissero che fu Come ritrovare un televisore a schermo piatto di 70 pollici dentro una piramide egizia. Al suo interno implementa un ingranaggio differenziale che sarà inventato ai giorni nostri solo intorno al 1900. C’ho speso settimane a studiarmi questo pazzesco groviglio di ingranaggi :)
      Ennesima dimostrazione che la storia è circolare, anche negli aspetti tecnologici. Serviranno un po' di anni e di questa menata dell'intelligenza artificiale non si ricorderà più nessuno così come nessuno si ricordava del meccanismo di Antikitera, che peraltro era infinitamente più utile della IA.

      PS: di scuola pitagorica, fu costruito in Sicilia

      Elimina
    2. Storicamente l'IA è passata più di una volta attraverso periodi di boom (pieni di entusiasmo e predizioni fantascientifiche) seguiti invariabilmente da "inverni" di delusione. Tutto sembrerebbe suggerire che accadrà di nuovo. E io invece penso, differentemente da molti commenti qui sopra (che in buona parte trovo poco centrati, ma non voglio dilungarmi troppo) che "stavolta è diverso".

      Ma penso anche (e in questo credo di concordare con voi tutti) che esattamente come per televisione, internet, smartphone, etc. si presterà facilmente ad essere male utilizzata, soprattutto nelle conseguenze che avrà sulle capacità intellettive e relazionali delle persone.

      Come oggi c'è chi combatte in maniera sacrosanta contro la "scuola digitale", bisognerà combattere in futuro per una scuola libera dalla IA.

      Elimina
    3. Non è un algoritmo di query. È un tentativo di emulare la mente umana emulando il funzionamento dei neuroni biologici.
      Al momento viene emulata un'intelligenza scarsa, o molto scarsa come preferite ma il concetto è quello.
      Emula i neuroni e i loro collegamenti, quelle che in biologia sono dette sinapsi.

      Quindi ha un principio di funzionamento completamente diverso dai classici programmi deterministici, ecco perchè dà spesso risposte errate. Anche un cervello vero sbaglia.

      Un cervello stupido forse sbaglia di più, ma il punto è capire che per renderlo più intelligente basta aumentare la capacità computazionale e la memoria.

      Il limite dei neuroni digitali è che consumano molta più energia di quelli veri, e questo ne limita l'espansione. Un cervello biologico ha una massa di 3kg e consuma qualche Watt (mi pare una ventina). L'equivalente digitale (che ancora non esiste) ad oggi richiederebbe una centrale elettrica tutta per sè.

      Ma non bisogna dimenticare che invece i neuroni dei cervelli umani non possono essere aumentati a piacere come quelli di una macchina. Questo in prospettiva dà un forte vantaggio alle macchine.

      Elimina
  30. In attesa della versione con gli insulti :D

    RispondiElimina
  31. Caro Professore, utilizzo l'IA per lavoro essendo uno sviluppatore software, cosa di cui dovrebbe essere molto esperta.
    Tra soluzioni ottime, anche se un po' prolisse, non sa quanti svarioni ci stanno in mezzo. Svarioni che io, da tecnico, riesco ad individuare ed a correggere.
    Ma ci sono molti miei "colleghi" non programmatori che ormai la utilizzano per non pagare un programmatore. E sono tanti.
    Può immaginare il risultato.
    Mi arriva tra le mani codice che non le dico.

    RispondiElimina
  32. Per dare un esempio più chiaro, sempre rifacendomi al sorgente: https://github.com/jgabriellima/backpropagation/blob/master/nn.py .

    Se io sostituisco la funzione demo ( che istruiva la rete ad operare come or-esclusivo) con questa:
    [quote]
    def demo():
    # Teach network XOR function
    pat = [
    [[0.1,0.2], [0.3]],
    [[0.4,0.5], [0.9]],
    [[0.1,0.1], [0.2]],
    [[0.2,0.1], [0.3]],
    [[0.11,0.11], [0.22]],
    [[0.4,0.4], [0.8]],
    [[0.06,0.6], [0.66]],
    [[0.0,0.1], [0.1]],
    [[0.3,0.3], [0.6]]
    ]

    # create a network with two input, two hidden, and one output nodes
    n = NN(2, 2, 1)
    # train it with some patterns
    n.train(pat)
    # test it
    pat2 = [
    [[0.2,0.2]],
    [[0.2,0.5]],
    [[0.15,0.15]]
    ]

    n.test(pat2)
    [/quote]

    Con la matrice PAT, fornisco ora alla mia rete di 5 neuroni i seguenti esempi:
    0.1+0.2=0.3
    0.4+0.5=0.9
    0.1+0.1=0.2 etc.

    Poi la interrogo con casi che non ha mai visto, tramite la matrice PAT2 :
    0.2+0.2=?
    0.2+0.5=?
    0.15+0.15=?

    Questo è ciò che risponde:
    ([0.2, 0.2], '->', [0.3836656153501531])
    ([0.2, 0.5], '->', [0.696035505713628])
    ([0.15, 0.15], '->', [0.2704440183848021])

    Ossia, valori abbastanza vicini al vero.
    Usando la matrice PAT in poche parole ha assegnato i pesi alle sinapsi in modo tale da avere l'errore più piccolo possibile sfruttando quegli esempi. Cioè ha creato un modello aderente all'esempio fornito.

    Poi ha applicato lo stesso modello al caso imprevisto PAT2 ed ha fornito risultati coerenti con il modello precedentemente sviluppato.

    Quindi originariamente fungeva da or-esclusivo, ora il solito codice effettua delle somme.

    E questa è una rete di soli 5 neuroni in cui l'unica cosa che può cambiare sono i pesi delle sinapsi, ma non può costruire o cancellare nuove sinapsi o nuovi neuroni.

    Gli algoritmi più evoluti possono anche modificare la topologia dei collegamenti (come il cervello umano) e possono generare nuovi neuroni (cosa che il cervello non può fare, o comunque secondo certi studi in misura limitata). La creazione e distruzione delle sinapsi e dei neuroni è affidata ad algoritmi genetici, che incorporano una certa casualità.

    Questo rende la rete neurale imprevedibile, cioè finchè non provo a farlo, non posso sapere cosa mi risponde se chiedo quanto fa 0.23+0.46. Ma negli algoritmi moderni non posso sapere nemmeno cosa mi risponde se glielo chiedo una seconda o terza volta, perchè ogni volta la risposta cambia.

    RispondiElimina
  33. Visto che è "dell'epoca" giusta può farsi due risate 🤣 https://youtu.be/vghUfogjUd4?si=gj-bA5xMASElO3-T

    RispondiElimina
  34. Questo per farlo capire a chi in quel periodo ancora non esisteva 😅
    https://youtube.com/shorts/k7RGl1MEq_g?si=fEa-T1oRO1XTPAxf

    RispondiElimina
  35. “Eloquenza non è intelligenza e imitazione non è comprensione” link molto interessante da un amico: https://www.forbes.com/sites/corneliawalther/2025/06/09/intelligence-illusion-what-apples-ai-study-reveals-about-reasoning/

    RispondiElimina
  36. Stavo giustappunto ipotizzando con un mio amico di realizzare una AI che sia in grado di arrabbiarsi. Sarebbe un ottimo modo per scaricare la frustrazione.

    RispondiElimina

Tutti i commenti sono soggetti a moderazione.