martedì 4 novembre 2025

L'ateniese imbruttito, ovvero dialogo con l'intelligenza artificiale

 (...fatto trenta, famo trentuno, non sia mai si sperda questa interessante testimonianza. Poi mi metto a lavorare per il #goofy, lo giuro, dove nel frattempo siamo ridiventati tanti quanti nel 2016...)













(...a partire da qui...)

(...puttana miseria! Sbaragliato su tutta la linea, continua a ripetere che volevamo boostare il pattern con la svalutèscion! Altro che Milanese imbruttito: a questo Celentano je spiccia casa! Ma affidiamoci sereni a lui. La cosa impressionante - non so se l'avete notata - è la rapidità con cui l'hanno ricalibrato dopo che per una volta aveva detto una cosa intelligente. Ma si sa, abbiamo vinto perché Elonio è uno di noi... Noi chi? Magari sarà uno di voi, ma è piuttosto ovvio che Goofynomics non l'ha letto, come del resto ormai sono rassegnato ad ammettere che non lo abbiate letto nemmeno voi...)

(...non contestatemi l'ultima frase, perché l'alternativa è ben peggiore... per voi!...)









76 commenti:

  1. Un lampo di lettura esilarante anche in un momento angoscioso e buio come è per me questo.
    Comunque a sentir Sua stupidità artificiale in Italia eravamo già decarbonizzati da un pezzo: andavamo a EVO, il che è vero!
    Sconcertante la quantità di testi prodotti oggi con questi programmi: stessa prolissità, stessa sintassi piatta, stessa vaghezza negli enunciati.
    È pure orribile da leggere, come ascoltare una sequenza di stonature.

    RispondiElimina
    Risposte
    1. Verrai al convegno? Saremo tanti, ci divertiremo.

      Elimina
    2. Devi sbrigarti perché domani pomeriggio si chiudono le iscrizioni.

      Elimina
    3. @Alberto Bagnai4 novembre 2025 alle ore 17:38: Sì, treni permettendo.

      Elimina
    4. Divertente, sì - forse qualcuno non si è nemmeno accorto della vacua figura che faceva - a tratti esilarante (la chiusa) e istruttivo (Simone).
      Proprio per la densità di alcuni interventi sarebbe benvenuta la possibilità di interagire con i relatori "esterni", durante le sessioni, nelle pause o ai pasti. Mi chiedo se loro stessi non siano mai incuriositi da un così bizzarro uditorio. Io lo sarei.

      Elimina
  2. Garbage in - garbage out.

    Ciò detto, non so se si è trattato di ricalibrare Grok dopo la risposta data a Fornasier (quando Grok3 divenne MechaHitler ci misero giorni a ricalibrarla): è più probabile che statisticamente l'argomento "l'Italia sta meglio fuori dall'€" è più comune dell'argomento "l'Italia non svalutò". Ossia: interrogare Grok non da la verità, ma un'analisi demodossologica.

    RispondiElimina
    Risposte
    1. Si, ma è (secondo me) interessante notare che la demodossa sull'€ è che ci faccia male.

      Elimina
    2. Mancando noi di una cognizione precisa del materiale sul quale Grok è addestrato, possiamo farci solo una rappresentazione fenomenologica dei suoi bias. Dice cazzate, ascolta cazzate. Tutto qui.

      Elimina
    3. Sintesi, a mio parere, insindacabile :-)

      Elimina
  3. Gentilissimo Alberto.
    (Si può ancora dire? Non lo so ma mi va)
    L'ultima volta che abbiamo discusso mi ha "rimproverato" di antropomorfizzare troppo le I.A.
    Ho cercato di farle notare che esistono alcuni fattori comuni ma anche delle differenze sostanziali. E se da una parte le ho evidenziato alcune caratteristiche che a mio avviso ci accomunano...
    In questo specifico caso la informo che se ha cercato un dialogo costruttivo con una IA per farle cambiare opinione in qualche maniera ha speso inutilmente il suo tempo.

    Una tra le più enormi differenze sostanziali tra il discutere con un umano e con un modello linguistico è che sicuramente il modello è, detto all'orientale, una "coppa piena" e come tale non può più essere riempito.

    Grok è stato certamente "istruito" su dati e informazioni che anche cita come "Banca d'Italia", "Giavazzi", "OCSE", ect. ma il Grok con cui sta discutendo non è una "mente" aperta e ricettiva che può modificare le sue convinzioni in base a nuovi elementi o considerazioni che gli fornisce.
    Lei sta discutendo con una "fotografia" fissa e immutabile di una "mente" stampata in una certa data. Tutte le informazioni che gli fornisce, svaniranno alla chiusura della conversazione come un battito di ciglia.
    Il solo fatto che l'LLM possa sostenere con lei una conversazione dove "finge" di ricordare l'argomento precedente non è assolutamente assimilabile a ciò che avviene durante una conversazione umana.
    Tanto per darle una idea, per permettere questo "trucco" di finta memoria umana, al modello linguistico, non viene fornito in input il suo testo ma una "finestra di contesto".
    Detto in parole povere, finché lei non chiude la discussione, all'LLM non viene dato in pasto solo il testo che lei digita ma anche tutto quello che gli ha scritto precedentemente più le sue stesse risposte.
    E' con questo "trucco" che attualmente viene "simulata" la memoria a breve termine umana.
    Questo "workaround" è stato inventato perché la fase di addestramento di un motore linguistico è molto onerosa in termini computazionali di calcoli da eseguire e dunque energetici.
    Di conseguenza si parte da una "mente" vuota, si spende un sacco di energia per riempirla fino ad un certo punto che si ritiene soddisfacente e poi se ne salva una copia di quella "mente" su di un disco.
    Fissa, immutabile nel tempo, non più istruibile o correggibile.
    I pignoli potrebbero obbiettare che si può ancora "modificare e istruire" e sarebbe pure vero. Ma non lo può fare lei con dei "prompt" lato utente. Deve essere fatto con altre metodiche da chi possiede fisicamente il file che contiene i "pesi" (valori delle sinapsi che collegano i neuroni artificiali) della mente.

    Tentativo ammirevole il suo voler "convincere" una mente "fissa" ma ahime del tutto futile.

    RispondiElimina
    Risposte
    1. Ma cosa cazzo pensi di potermi insegnare tu? Signore pietà! Ci sarà pure un limite al non capire con chi si ha a che fare! A che età sei arrivato (se posso) essendo totalmente privo di questa virtù salvifica? Quando pensi che qui il dibattito si svolga su un certo piano, fai uno sforzo di astrazione, prendi l'ascensore e sali di un paio di piani. Non basterà, ma ti avvicinerai...

      Elimina
    2. Menti fisse che spiegano menti fisse, che spiegano menti fisse... siamo in un piddo-frattale. Sarà per quello che non se ne esce.

      Elimina
    3. Corretto, anche se il prof. s'inalbera. Serve non certo al Prof. che sa già tutto e ha già detto tutto da almeno 15 anni, ma per molti di quelli de passaggio qui, che non è detto conoscano le NN tanto bene quanto "unknown", il quale ha dato una spiegazione chiara e semplificata del funzionamento degli LLM

      Elimina
  4. "Sei libero come macchina di esprimere le tue opinioni" è l'ossimoro più bello che io abbia mai sentito :-)

    RispondiElimina
    Risposte
    1. Ecco. Qui invece c'è qualcuno che capisce. Ma si può veramente pensare che io potessi considerare una macchina americana (nemmeno scema: americana!) come un interlocutore? Ovviamente la mia maieutica nei riguardi dell'ateniese imbruttito serviva solo come exemplum per i tanti cretini che pensano che quella roba lì sia veramente un'intelligenza.

      Elimina
    2. Grok è utile solo e soltanto come rovistatore inde-fesso di discariche on-line nelle quali, non dovendoci perdere tempo grazie a lui, qualcosa di utilizzabile si può anche trovare. A patto di sapere che è veramente stupido e va istruito di conseguenza. Praticamente, se se ne vuol trarre vantaggio, va evitato come la peste il ricorso alla dote più stupefacente che gli viene attribuita, la creatività. AI, Absolute Idiocy, perfetto utile idiota, in questo senso perfettamente aderente allo scopo per il quale è stata creata.

      Elimina
    3. Purtroppo è diventato utile perchè i risultati di ricerca mostrano siti praticamente tutti uguali senza darti le informazioni che cerchi o proponendoti solo prodotti da acquistare.

      Ne ho avuto prova cercando di risolvere un problema sul computer e facendo una domanda molto circoscritta per trovare possibili soluzioni che non ero riuscito a trovare con un comune motore di ricerca.
      Personalmente lo uso anche per avere, talvolta, dei riferimenti normativi in modo da andare personalmente a verificare i contenuti.

      La cosa interessante è che, come i motori di ricerca possono essere indotti ad aumentare il ranking del tuo sito, ora si può, e si dovrà, fare anche con le AI in modo che a domanda rispondano con i tuoi contenuti o proponendo i tuoi prodotti.

      Elimina
  5. letta la "conversazione" tra te e grok ed è esilarante mi sono divertita molto 😆😊

    RispondiElimina
    Risposte
    1. in effetti perculare la AI non ha prezzo, anche se è sicuramente più faticoso farlo con un supercomputer addestrato ad essere piddino che con il suo scadente collega "umano".

      Elimina
  6. Bellissimo, grazie, come al solito.
    Altrettanto agghiacciante però, sapendo che viene preso dalla maggioranza come verità pura ed oggettiva, mentre in realtà è semplicemente indirizzabile (e quindi indirizzato) da chi lo controlla.

    RispondiElimina
  7. Conversazione istruttiva e bella anticipazione di quello che ci sarà al #goofy. Dalla conversazione emerge che la macchina, oltre a fare la furbetta sui dati, non pensa ma ripete quanto è stato scritto da altri. Infine, per quanto mi riguarda, la scala mobile andrebbe ripristinata.

    RispondiElimina
  8. Solo una nota, da informatico, riguardo al "calibrare gli algoritmi".
    Purtroppo questo genere di programmi, sono considerate delle "black box", ciò che di più vicino esiste nell'informatica alla magia.
    Non sono un fan di Elonio, ma questi "cosi" (quelli bravi dicono LLM) sanno solo parlare, non ragionano veramente, anche se sembra.
    Sono dei sofisti, neanche troppo bravi.
    Certo, gli sviluppatori danno delle istruzioni da seguire con massima priorità, ma basta guardare un film degli anni '80 per capire come funziona.
    La verità è che questi modelli funzionano solo perché hanno letto tutto ciò che internet ha da offrire, e internet è composto all'80% da merda cagata da piddini.
    Perdonate il francese.

    RispondiElimina
    Risposte
    1. Aridanga! Vabbè, io ci rinuncio. Non volete lurkare, con la netiquette vi nettate le terga, e allora che volete che vi dica? Che non ci sono più gli ingengngnieri di una volta...

      Elimina
    2. Prof. lei ha un futuro come comico contro l'IAIAIA (L'asina...). E la sua schermaglia dimostra come certe ideologie come la I'IAIAIA dipendono da come le settano i moderni padroni del vapore (ovvero dei chip).
      Insomma, riassumendo: come fare rincretinire la gente spendendo miliardi e subito riprendendoli come ha fatto Bill G che in un anno ha raddoppiato il costo della sua licenza Office, ergo la paghiamo noi l'IAIAIA - il raglio. Porca Miseria (me la passa vero??) ma perchè nessuno vuole comprendere che per capire le cose bisogna farsi il mazzo sui libri (e sul Goofy) anzichè cercare scorciatoie sui computer?

      Elimina
    3. In realtà, il commento di Brando non è corretto. Si può sempre fare "prompt engineering" (ovvero, fornire contesto in input all'LLM) per "calibrare l'algoritmo".

      Elimina
    4. Basta farsi un giretto su TikTok dove non si parla di altro…

      Elimina
    5. In verità ho solo espresso concetti già noti alla community, come il prof stesso ha fatto in qualche diretta un paio di settimane fa e come si evidenzia in uno dei vecchi goofy.
      Quello che dice Davide è formalmente corretto, ma non sostanzialmente. Si può tentare di influenzarne il funzionamento tramite "prompt engineering" (che in realtà è una cosa più complessa) nel system prompt ma si agisce sempre all'esterno della black box, si può agire prima, dopo, o entrambe.
      Ma non si agisce mai all'interno della scatola, perché per farlo sarebbe necessario far ripartire il training, che è un processo costoso e ci si pensa mille volte prima di rifarlo. Tutti gli altri interventi sono "soft", delle pezze, non si risolve per davvero.
      Infine, cerco di fare del mio meglio nell'evitare di scrivere stronzate qui, perché so che è un luogo dove si cerca di mantenere un certo livello, ma non mi sembra di essere nella metà peggiore, ecco.

      Elimina
    6. Caro Brando, anche questa risposta è parzialmente scorretta. Esistono tecniche per fare finetuning del modello senza addestrarlo da zero: vedasi LoRA.

      Inoltre, non ci vuole granché a fare un po' di finetuning da feedback umano tramite apprendimento per rinforzo.

      Black box, in machine learning vuol dire un'altra cosa, e ad essere sinceri i moderni LLM sembrano sempre meno degli algoritmi "black box" (se interessati consiglio di cercare "agentic")

      Elimina
    7. So bene che esistono diversi modi per evitare di rifare il training da zero, ma sono dei palliativi, e lo si può capire perfettamente con un po' di utilizzo di questi modelli.

      Elimina
    8. Insomma, non sono affatto dei palliativi. Il cosiddetto "allineamento" fatto con RLHF (reinforcement learning from human feedback, ovvero apprendimento per rinforzo da "riscontro" umano) è stata la tecnologia determinante per il successo di chatgpt. Non a caso a capo del team c'era John Schulman, uno dei ricercatori più importanti in ambito apprendimento per rinforzo.

      Ma anche se fosse solo un "palliativo", sarebbe (o, meglio, è) certamente abbastanza come metodo per "calibrare gli algoritmi" e sopprimere output scomodi.

      Perdonate la pedanteria, ma il machine learning è la mia area di ricerca accademica, e se posso, cerco di assicurare che il livello del dibattito si mantenga alto anche in quest'area.

      Elimina
  9. Mi pare di capire che L'IA è ottima come sparring partner per allenarsi a interloquire coi piddini senza spappolarsi il fegato.

    RispondiElimina
  10. Ogni tanto mi confronto con le AI in questo modo dal punto di vista sanitario (sono coordinatore di una Struttura...). È un grosso problema, emerge sempre un indottrinamento su "evidenze" completamente superate, o con referenze imbarazzanti, quando non addirittura prive di basi. E purtroppo c'è una platea che si rivolge a questi strumenti come gli sventurati protagonisti del paradigmatico racconto di Frederic Brown. Temo che il problema epistemologico diventerà così pressante che difficilmente si potrà continuare ad eluderlo, come è stato orribilmente fatto fino ad ora.

    RispondiElimina
    Risposte
    1. Abbiamo cominciato ad affrontare il tema epistemologico tanti anni or sono principalmente perché preoccupati dalla deriva “epistocratica” connaturata ai Governi tecnici (cioè deresponsabilizzati), e già allora in qualche modo si poteva presagire che una qualche forma di “fallacia ad auctoritatem” rafforzata fosse nell’aria. Quella costituita dall’IA supera nel bene e nel male qualsiasi aspettativa!

      Elimina
    2. La ringrazio molto per la risposta.

      Elimina
    3. Devo però ammettere che quando viene proposto a livello aziendale come strumento di lavoro, i limiti, anche epistemiologici, vengono riportati e, soprattutto ai piani alti, c'è una certa diffidenza.
      D'altra parte, alla finanza, non puoi dire "me lo ha detto Gemini"

      Elimina
  11. Apprezzabile, nel senso di illuminante, la resistenza che la macchina oppone alle solide argomentazioni, concedendo il minimo ad ogni passaggio e difendendo sempre "quello che si dice in giro", ossia la versione mediatica del mainstream. A suo tempo avrebbe difeso il sistema tolemaico e in realtà non avrebbe potuto fare diversamente. Grazie per la elegante dimostrazione.

    RispondiElimina
    Risposte
    1. Prego. Con buona pace di chi viene qui a spiegarci i LLM, spesso senza sapere che cosa siano, lo scopo di questo post è esattamente quello di evidenziare i limiti dello strumento. Ma da quando siete diventati “de destra” il livello di raffinatezza intellettuale è crollato vertiginosamente rispetto a quando eravate “de sinistra”, a parità di numero di ingengngnieri! 😂 Il Dibattito sta diventando infrequentabile…

      Elimina
  12. Al di là del dialogo (decisamente interessante nell’ottica del test di Touring), l’unico commento che mi viene da fare è che…i piddini saranno sostituiti dalle macchine: sono altrettanto saccenti e testarde, ma più educate e simpatiche.

    RispondiElimina
  13. Purtroppo i temi di cui sopra non sembrano essere prioritari per la massa, così come non lo è il PEPEPREPPEPPE posto che anche confindustria sembra non ci abbia capito quasi nulla. Quello che interessa a laggente sembra più convergere sulle differenze impositive tra A7 e A8... Categorie più dell'anima che catastali...

    RispondiElimina
  14. buon esempio di intelligenza artificiosa addestrata, che dimostra almeno due cose: la logica deduttiva è ben lontana dall'essere radicata nell'IA ma essa parte dai dati nozionistici (come un qualsiasi motore di ricerca) ed apprende (sic) con il ragionamento e il dialogo; l'IA viene addestrata esclusivamente sulla vulgata della rete e, come la vulgata di san Girolamo, presenta delle "lacune interpretative" che possono durare anche svariati decenni (il teorema della menzogna ripetuta che diventa postulato)

    RispondiElimina
  15. Ulteriore nota di colore: mentre strigliavo Google alla ricerca del brano di Proust di cui ad un mio commento di qualche tempo fa il pappagallino elettronico incorporato, affannandosi nel tentativo di aiutarmi, è arrivato a sostenere che nella Recherche non esiste un personaggio di nome Françoise. Non ho avuto la prontezza di immortalare l'evento.

    A mio parere questa moda non durerà a lungo. Sono macchinette troppo stupide perfino per essere pilotate, il rischio che scappino di mano è troppo elevato, e dall'altro lato sempre più gente si sta rendendo conto che spesso sfornano solo castronerie a raffica, per quanto raccontate in modo credibile. Ogni parto di questi aggeggi richiede invariabilmente di essere controllato e verificato (vedasi commento di pibio), raddoppiando l'impegno invece di ridurlo e vanificando uno dei presunti scopi per cui sono state create. Non di rado deragliano del tutto e si ha l'impressione di ritrovarsi nella metafora della partita a scacchi con un piccione.

    Comunque, complimenti per la pazienza, anche al netto dell'intento pedagogico. La prima e unica volta in cui ho provato ad usare uno di questi marchingegni sperando di cavarne qualche utilità il risultato è stato oltremodo comico e non ho retto più di tre scambi.

    RispondiElimina
  16. Commento che sembra fuori tema, ma non lo è. Al di là dei bias cognitivi dovuti al training che sono ben noti a chi conosce l'IA generativa, l'IA nel suo complesso è un problema epocale per una semplice ragione: riduce subito (di molto) i costi di tante prestazioni, creando danni immensi sul lungo periodo (tra dieci anni non esisteranno più persone capaci di pensare senza usare certi tool). In un mondo in cui contano le trimestrali di cassa, il disastro è non solo annunciato, ma scontato.

    RispondiElimina
  17. Interessante esperimento, spero pedagogico per coloro che ritengono un modello linguistico un novello oracolo di Delfi. Molto più utile, visto il suo funzionamento, per fare traduzioni (ma anche reperire dati o fonti bibliografiche), non certo per dibattere compiutamente di temi economici. Il problema è che qualsiasi cos un "umano autorevole" dica in X, c'è sempre un frescone che invoca l'oracolo non tanto per reperire fonti, ma per capire cosa pensa la macchina al riguardo.

    RispondiElimina
  18. A me terrorizza il fatto che, nonostante una dimostrazione come questa, c'è chi sicuramente leggerà la "vincita" della macchina contro l'umano.
    Grok è un (enorme) "quelli che", che quando gli parli ha in mano uno smartphone e, prima di dialogare, controlla cosa dice l' IA, insomma siamo in un cul de sac.
    Spaventoso.

    RispondiElimina
  19. Pur essendo un modello codificato e direzionato linguisticamente, ad esempio ChatGPT si colloca su un livello nettamente superiore rispetto a Grok, soprattutto per la capacità di sviluppare risposte articolate — sia nella modalità standard che in quella di “ragionamento approfondito” o di “deep research” quando si ha a che fare con dati e report.
    Inoltre, la possibilità di memorizzare e integrare correzioni nei ragionamenti lo rende uno strumento più flessibile e avanzato. Su Grok non è possibile fare ragionamenti che non rimandino a risposte preconfezionate.

    RispondiElimina
  20. Dialogo interessante e aggiungerei delle osservazioni.
    1. La macchina non può competere con l’uomo nell’analizzare i dati. Questo non toglie che Grok sia un prezioso strumento informativo, da integrare ovviamente con altre fonti.
    2. La nostra ignoranza è principalmente dovuta ai pregiudizi. Così diventiamo tifosi di una parte e denigratori di un’altra. Se invece impariamo a leggere senza pregiudizi fonti di teorie opposte, magari con l’aiuto di Grok, a cui si dovrà porre le giuste domande senza fidarsi della prima risposta, avremo una idea su chi nei due schieramenti bara di più, perché purtroppo le mediocrità dei politici e degli economisti è tale che molto probabilmente entrambi barano.
    3. Nello specifico farei pignolescamente notare che quel che conta nella politica monetaria è il tasso reale e non quello nominale. In certi periodi un tasso del 6% italiano era molto più espansivo del 6% tedesco, tenuto conto del differenziale di inflazione.
    4. Quel che conta sono i fondamentali e la politica monetaria li può aggiustare più o meno rapidamente. Però se i fondamentali, come un costo energetico troppo elevato, non si risolvono il problema rimane. Quindi una politica monetaria espansiva non può certo risolvere le criticità delle carenze di approvvigionamenti di fonti energetiche. Una politica monetaria aiutata con investimenti mirati ad aumentare l’indipendenza energetica invece aiuta molto di più.
    5. Ho parlato di mediocrità di politici ed economisti poiché di fatto il problema dell’Italia è di una politica monetaria inadeguata (l’ancoraggio all’Euro), che ci ha penalizzato con interessi reali più elevati rispetto alla media UE, con conseguente perdita su investimenti e competitività, enfatizzata dagli economisti Bagnai e Borghi. Però quest’ultimi sembrano ignorare gli sprechi e le inefficienze della PA, enfatizzati invece dagli altri pro Euro. Direi che il dialogo con Grok metta proprio in evidenza l’importanza dell’economia reale e quindi della utilità di fare investimenti adeguati, piuttosto che sperperi e opere incompiute. A sentire Borghi sembra che si possa risolvere tutti i problemi stampando moneta (durante lo shock petrolifero non ha funzionato). A sentire la Corte dei Conti (nonostante la mia diffidenza verso i giudici la considero più competente della Meloni) pare che il Governo non sia proprio attento alla qualità degli investimenti.
    Quindi sintetizzando abbiamo economisti che ignorano i problemi che ci hanno causato l’anomalia monetaria e economisti che ignorano gli sprechi che abbiamo fatto nel tempo, portando avanti quello che fa loro più comodo. Quando la smetteranno di vedere quello che fa loro comodo per portare avanti le loro idee forse troveremo la soluzione ai nostri problemi.

    RispondiElimina
    Risposte
    1. Ok, ok... Guarda, qui con castacriccacoruzzione abbiamo già dato all'inizio. Poi fai tu... Quanto ad altre frasi magniloquenti e assertive, io sarei molto cauto. Esempio: "Quello che conta sono i fondamentali e la politica monetaria li può aggiustare più o meno rapidamente". Su questa asserzione rilevo intanto che è generica (andrebbe chiarito a quali fondamentali ti riferisci) e poi che è controversa (per una nutrita schiera di economisti "competenti" la moneta è neutrale o superneutrale e quindi non influisce sulle variabili reali. Non si vede poi come la politica monetaria potrebbe interferire con le condizioni dell'offerta, come uno shock energetico. Insomma: tu padroneggi abbastanza bene, per il livello di un blog di dilettanti, l'arte di dire grandi frasi che non dicono nulla, ma non credo che qui, nel blog di un professionista, tu possa essere di grande aiuto, né che noi possiamo aiutare te.

      Elimina
    2. Anche per una nutrita schiera di scienziati "competenti" il sole e i pianeti descrivevano epicicli intorno alla terra. Ho motivo di ritenere che questi (scienziati) e quelli (economisti) avessero e abbiano torto, soprattutto (quelli) in un regime fiat.

      Elimina
    3. Questa cosa della Fabbrica Italiana Automobili Torino se potessimo dirla in italiano ci aiuterebbe tutti, no?

      Elimina
    4. Pensavo di essere nel blog di un professionista, seguito da persone di un certo livello.
      Comunque, per aiutare "tutti" e senza la pretesa di trattare l'argomento in modo esaustivo, fiat (scritto minuscolo, in maiuscolo è una famosa impresa italiana) viene dal latino e significa "sia fatto".
      Se riferito al mondo allude alla creazione divina ex nihilo; se riferito alla moneta (di questo si stava parlando, no?) si riferisce alla moneta creata, parimenti dal nulla, poiché le viene assegnato un valore nominale slegato dalla materia di cui è composta (accredito di un conto contabile, carta, metallo vile) da un'autorità centrale (oggi le banche centrali, in passato magari l'Imperatore) e non è convertibile, presso la medesima autorità, in oro o argento o altro che non sia moneta: infatti non viene emessa a fronte di attività reali (se non in parte minima), ma per lo più a fronte di attività finanziarie (essenzialmente, titoli di stato o moneta di altri stati)
      Sulle vecchie banconote in lire (non le 500£, tutte le altre) campeggiava infatti una scritta che recitava all'incirca La Banca d'Italia pagherà £XXXXXX a vista al portatore, come su un assegno circolare emesso da una banca commerciale.
      Il suo valore è legale, in quanto necessaria e sufficiente per adempiere alle obbligazione di pagamento.
      Si parla anche, infatti di moneta a corso legale, a corso forzoso.
      Il fatto che non abbia -di principio- un controvalore reale fa sì che in taluni periodi storici venga creata ampiamente in eccesso rispetto alle necessità del sistema economico (i famosi casi di Weimar e dello Zimbabwe, tanto amati dalla retorica pro Euro di bassa lega) e si generi iperinflazione.

      Tuttavia ritenevo che la locuzione "regime fiat" fosse più sintetica di questo pur inesaustivo papiro, ma altrettanto chiara, magari non al volgo che non ha gli strumenti culturali (e talvolta nemmeno quelli cognitivi) per partecipare al dibattito (e infatti viene regolarmente schernito dall'Ospite) ma almeno all'inclita, che vi partecipa invece con beneficio per "tutti".

      Elimina
    5. Bruciato per non aver saputo dire “a corso legale”. Secondo me hai meno di quarant’anni.

      Elimina
    6. Ho dato a Grok il prompt "scrivimi un post per blog per dire 'a corso legale' anziché regime fiat nello stile di Bagnai" ed è uscito questo.
      Il commento l'ho scritto io. Comunque sul finire "a corso legale" gli è scappato...

      Elimina
    7. Ci si dà alle facezie qui, naturalmente. Comunque io ho imparato l'economia PRIMA che tu la spiegassi e infatti leggendoti sul Manifesto ero ammirato nel leggere finalmente le cose che pensavo e sapevo, ma sorpreso che qualcuno (almeno) a sinistra ne capisse. Infatti sei stato costretto a diventare de destra, pur continuando a dire le stesse cose.
      In ogni caso mi son laureato con lode a luglio del quart'anno, nell'82. So di essere stato precoce, ma, se avessi meno di 40 anni credo lo sarei stato stato DAVVERO moltissimo. Grazie del complimento, comunque

      Elimina
    8. E' uno dei miei innumerevoli difetti...

      Elimina
  21. Probabilmente verrò bannato a vita, ma se ne potrebbe fare un libro con questo "format": capitolo di inquadramento del problema, sotto con le domande e risposte di una AI e poi conclusione "umana"; altro capitolo con altro problema, ecc.
    Da un lato screditerebbe la AI e dall'altro aiuterebbe moltissimo a capire i sotterfugi di tante narrazioni ad oggi in uso. L'unico problema è che se il libro diventasse virale, dimostrando "la bolla AI", potrebbe diventare fastidioso per GPT e compagnia cantante...

    RispondiElimina
    Risposte
    1. Beh, magari lo stuzzichiamo in musicologia, anche lì ci sarebbe da divertirsi.

      Elimina
    2. Ma lei se lo immagina Baroffio che domanda ad una AI il ruolo dell'oralità del canto ecclesiastico pre riforma gregoriana o una riflessione sul fatto se la "riforma" ha davvero unificato il canto orale o creato un nuovo repertorio?! Ho già l'acquolina in bocca.

      Elimina
  22. non sottovaluterei la capacità di ragionamento dell'IA su argomenti molto specifici, non generali: un paio di mesi fa mi è capitato di sottoporre un quesito di tipo probabilistico a 3 IA, chat gpt, textcortex e kimi, quesito di cui conoscevo la possibile veridica risposta, non documentata da testi reperibili in rete ma tramandata oralmente, e presa come verità assodata da un determinato gruppo di persone; le risposte delle IA sono state simili e definite come percentualmente improbabili perchè non suffragate a sufficienza documentalmente; ho instaurato con le IA un ragionamento partendo da ipotesi basate su fatti storici e dati concreti inerenti l'argomento e, dopo circa un mese, ho riproposto sostanzialmente il medesimo quesito, capovolgendo però la prospettiva di partenza; la risposta immediata di tutt'e tre è passata da altamente improbabile a scenario plausibile, anche se non documentato storicamente; anzi, in un caso (kimi 2), l'IA ha proposto una serie di dati che hanno pressocchè centrato la "verità" tramandata oralmente, suggerendo approfondimenti in quella direzione; dati che ha probabilmente reperito in rete, allargando il raggio di azione della sua ricerca e considerandoli utili ad un eventuale approfondimento. Inutile dire che sono rimasto stupito dalla velocità di apprendimento, se c'è stato, e dalla capacità di proporre soluzioni efficaci dopo poco tempo. O, forse, la presunta "stupidità" dell'IA è causata dal porre le domande in modo poco simpatetico e non esaustivo per i loro circuiti logici... in fondo anche gli uomini a domande basiche rispondono con semplicità e ovvietà banali

    RispondiElimina
    Risposte
    1. Direi che non ci siamo proprio.

      Per curiosità, il quesito di tipo probabilistico qual era?

      Elimina
    2. il quesito riguardava la possibilità, in termini probabilistici rispetto al flusso documentato di esseri umani in un determinato periodo storico ben definito (seconda metà dell'800), che i discendenti di un'etnia specifica dalle caratteristiche particolari, di cui si sono perse le tracce, fossero da rintracciare in una particolare area geografica del pianeta; kimi ha elencato una serie di cognomi familiari, alcuni azzeccati secondo la narrazione orale, come possibili discendenti, suggerendo di ricostruire il loro albero genealogico tramite ricerca su determinati registri storici. Notevole risposta se si considera che non esiste evidenza documentale diretta di questo flusso di persone, come ammesso anche dalla stessa IA

      Elimina
    3. Grazie. Non ci ho capito molto, ma grazie.

      Elimina
  23. Gli economisti da cui attinge questa IA hanno avuto un grave trauma da piccoli: le madri gliele avranno date di santa ragione citando “mercato valutario”( o “svalutazione”) e talune volte “inflazione” durante le botte, continuamente, altrimenti non si capisce quest’ossessione. Citano queste due cose come se fossero, non so, il male assoluto. A dirla tutta, l’inflazione ha il bellissimo pregio di rendere più facile gestire il debito pubblico ma questa cosa la omettono( poi si lamentano che il debito pubblico è alle stelle!). Forse, colpiti dal trauma al quale associano questi due concetti, non capiscono più nulla.Mi ricordano il protagonista di delitto e castigo, che pensava sempre alle stesse cose, per il senso di colpa derivante dall’aver ucciso una povera anziana. Chissà, magari hanno una psicopatologia simile

    RispondiElimina
    Risposte
    1. Mancava quella spruzzata di autorazzismo, del tipo: "se sò magnati tutto, ora ce serve la badante". Poi era come sentire un incontro a tre: De Blasi-Arfaras-Boldrin.

      Elimina
    2. Mah, il problema di boldrin e via dicendo sta in quelle che si chiamano “scorciatoie mentali”: meccanismi mentali che il cervello usa per dare a se stesso l’illusione di capire la realtà semplificandola eccessivamente. Al posto di fare ragionamenti complessi, confrontare i dati e capirli, si usano delle semplici scappatoie (intrise di luoghi comuni) che rendono più facile l’analisi della realtà, ma al prezzo di avere una visione distorta della stessa. Non ci sarà più bisogno di studiare la storia economica d’Italia, basterà dire che la lira era brutta, che l’inflazione era colpa della liretta, così da dispensare il cervello da qualsiasi ragionamento complesso e critico sulla storia passata del nostro paese. Queste “scorciatoie” realizzano il desiderio narcisistico dell’utente di sinistra di illudersi di comprendere totalmente la realtà, rendendo la materia così semplice da essere comprensibile da quest’insieme di idioti. Un’altra caratteristica di queste tesi sta nel fatto che aiutano questi “economisti” a diffondere le proprie argomentazioni: se Bagnai pubblica un video o scrive un post, visto che non usa queste facili scorciatoie mentali, gli utenti più pigri non lo seguiranno, mentre uno come Boldrin viene più seguito da chi si alimenta di questi luoghi comuni poiché le sue tesi non richiedono lo stesso sforzo mentale, creando un circolo vizioso estremamente pericoloso. Inoltre, molte di queste tesi non sono neanche falsificabili, poiché spesso sono così generiche da rendere difficile per chi le critica smontarle facilmente. In sostanza, è un circolo infernale

      Elimina
    3. Io sarei per sterminare le piccole imprese che hanno produttività bassa e lasciare solo le grandi, come Campari e Stellantis che pagano le tasse
      (creato con Grok, chiedendo di impersonare drin drin)

      Elimina
  24. A livello di curiosità proverò a porre le stesse domande a Perplexity, per il semplice fatto che fra le sue opzioni c'è quella di effettuare ricerche fra fonti accademiche. Speriamo non tiri fuori l'OCA endogena 😁

    RispondiElimina
  25. Questo commento è stato eliminato dall'autore.

    RispondiElimina
    Risposte
    1. Per tacere della citogenesi, come dicono gli anglosassoni (cit. nerd XKCD
      https://xkcd.com/978/ )

      Elimina
  26. Ma perché venite a spiegare al prof Bagnai cos'ė e come funziona l'algoritmo stocastico a calcolo matriciale di una Lama, senza per altro sapere ne cos'ė, ne come funziona? Ma siete così analfabeti funzionali da non aver capito che ha perculato sta deficiente che esponeva bias prelevati da pattern di addestramento prefissati da persone con interessi divergenti dai vostri?

    RispondiElimina

Tutti i commenti sono soggetti a moderazione.