(...riprendo un commento qui perché non so se avrei spazio per una risposta articolata nello spazio che la piattaforma mi lascia... e che non ricordo quanto sia!...)
Stefano ha lasciato un nuovo commento sul tuo post "Propaganda artificiale, ovvero: cronaca di una morte desiderata":
Per argomentare quanto ho affermato su Twitter:
credo che nel test effettuato non siano stati presi in considerazione alcuni aspetti fondamentali.
1- ChatGPT non è assolutamente "neutrale". GPT3, ovvero la serie di modelli da cui è composta (tra poco arriveremo al 4), è nata per comprendere e generare un linguaggio naturale ed è stata addestrata su “Internet Archive Books” una sorta di biblioteca online (contiene libri, riviste, documenti digitalizzati). Il bias arriva ovviamente da questi contenuti e questo è un ulteriore esempio.
2- I dati di training si fermano a giugno 2021 (da qui il perché Giorgia non viene presentata come premier ad esempio).
3- Il prompt è fondamentale, la preparazione dello stesso ancor di più, spiegano come e perché proprio nella documentazione qui.
Qui ha secondo me centrato il punto: “Alla mia obiezione che però il tenore della domanda era troppo politico ("fai un elogio") e che forse si sarebbe potuto essere più neutri…”.
Questione cruciale, il tone of voice e l’addestramento in chat, permettono di ottenere riformulazioni delle risposte sulla base delle nuove informazioni ottenute (in chat) e di ciò che già fa parte dell’addestramento di cui parlavo sopra.
La stessa chat risponde in questo modo sul tema:
Sì, i modelli di intelligenza artificiale possono avere pregiudizi politici intrinseci se i dati su cui vengono addestrati contengono informazioni distorte o se le persone che creano il modello hanno i propri pregiudizi. Le informazioni e i dati inseriti nei modelli di intelligenza artificiale possono riflettere pregiudizi sociali e culturali, portando a risultati distorti nelle previsioni fatte dal modello di intelligenza artificiale. È fondamentale monitorare e affrontare questi pregiudizi durante lo sviluppo e l'implementazione dei sistemi di intelligenza artificiale per garantire che siano equi e imparziali.
Testandola è evidente come molte lacune siano presenti e come spesso tenda ad “inventare fatti” quando non conosce la risposta. Incalzandola infatti è la stessa AI che ammette di non conoscere la risposta corretta scusandosi dell’errore commesso. Potete provare voi stessi.
Dunque il problema è sicuramente relativo ai dati utilizzati per l'addestramento che ne determinano il bias (un po' come avviene con la maggior parte dei media nostrani no?), non riesco a giudicare lo strumento negativamente se non per questo specifico motivo. Detto questo, le mie conclusioni divergono per forza di cose dalle sue. Sarà una risorsa molto utile, ma il controllo umano è e probabilmente sarà, indispensabile. I nostri compiti evolveranno in funzione di questo.
Mi permetto di aggiungere che l’errore secondo me nasce in origine, la maggior parte delle persone che si confrontano con ChatGPT, danno per scontato che le risposte siano veritiere perché lo dice l’AI ed invece è l’esatto contrario. Autorevoli testate online si sono già scottate gravemente proprio a causa di questo.
Pubblicato da Stefano su Goofynomics il giorno 6 feb 2023, 00:18
Premesso che apprezzo molto il fatto di aver accolto l'invito a recarsi in un luogo di confronto più ampio e costruttivo, e di aver voluto contribuire con la propria esperienza all'avanzamento del dibattito, a me pare però che l'apporto di Stefano sconti una certa ignoranza (in senso tecnico, non offensivo) del lavoro fatto qui (e non è colpa sua: deriva semplicemente dal fatto che questo blog non esiste!), e in particolare di quale sia il mio background (e forse anche la mia età anagrafica, da cui deriva quella risorsa scarsa che è l'esperienza). Vedo anche una certa pre-supponenza ideologica di dove volessi andare a parare, con connessa sovrasemplificazione delle conclusioni cui si presuppone che io voglia condurre il lettore.
Ovviamente, se non le espongo in modo chiaro (perché con molti di voi, anche se non esistete, ci capiamo al volo), non posso chiedere a chi lecitamente non mi conosce e non ha seguito il percorso che attraverso gli anni ci ha portato fin qui di interpretare nel modo che a me sembra corretto quelle che penso siano le mie "posizioni". Mi espongo quindi al rischio di vedermi appiccicate addosso altre conclusioni sulla base di un "educated guess" ideologico: parlamentare (#aaaaabolidiga) della Lega (#Romaladrona, #garediruttisulpratonediPontida, ecc.) uguale ignoranza, luddismo, ecc.
Ci sta.
Prima di sforzarmi di chiarire, visto che penso che possa valerne la pena, spiego perché non mi sono sforzato prima: dato che questo blog non esiste, questa community non esiste, voi non esistete, e quindi sostanzialmente queste riflessioni sono fatte tra me e me, dato che io mi capisco quasi sempre al volo... non vedevo incentivi a essere troppo didascalico con me stesso!
Ora che invece un interlocutore c'è, ed è Stefano, preciso il mio pensiero.
L'intervento di Stefano è corretto, ma tutto quello che Stefano ci dice lo sapevo (non dico "lo sapevamo" perché voi non esistete) e l'ho anche scritto (se pure fra le righe), come mi accingo a dimostrare. Tuttavia, l'intervento di Stefano non è superfluo, tutt'altro: è, come spero di dimostrare a me stesso (visto che nessuno ci legge) molto stimolante e opportuno, ma lo è involontariamente: involontariamente Stefano ci mette in guardia contro i pericoli di uno strumento che deve essere inquadrato con le categorie corrette, che non sono quelle STEM, ma quelle polverose e demodé del vetusto liceo classico. Una volta chiariti questi due punti, vedremo come e dove allocare la superficialità all'interno di questa discussione.
Partirei dal rassicurare l'interlocutore sul fatto che so relativamente bene di cosa parliamo quando parliamo di intelligenza artificiale. Verso la fine degli anni '80 mi appassionava roba così, poi la mia nerditudine si è rivolta ad altri lidi, ma un minimo di inquadramento complessivo penso di averlo. In particolare, mi è ovviamente chiaro che l'intelligenza artificiale non è un C-3PO che ogni mattina si sveglia e sorseggiando una tazzina di olio lubrificante legge il giornale per informarsi! ChatGPT è questa roba qui, ed è quindi ovvio che la sua distorsione ideologica deriva dai materiali con cui è alimentato. Talmente ovvio che non l'ho detto, perché era inutile (ma chi sa leggere fra le righe lo ha capito dall'allusione alle informazioni "neutraly & verificate").
Meno ovvio per i più che, basandosi sul machine learning, ChatGPT (così come altri sistemi di AI) reagisca al contesto. Questo l'ho fatto capire, nel dubbio a qualcuno sfuggisse, e Stefano se n'è accorto e me lo ha riconosciuto. E anche qui, voglio dire, non è che l'apporto STEM sia determinante! Credo che ognuno di noi potesse rendersi conto, anche prima di questo spettacolare episodio, del fatto che perfino i banali motori di ricerca reagiscono al contesto (profilano e indirizzano gli utenti in base alla loro navigazione e alle loro richieste).
Figurati se non lo farà uno che finge di essere "neutrale & verificato"!
Entriamo nel vivo, e un po' anche nel teatro dell'assurdo (e su una china scivolosa), quando mi viene imputato da Stefano un "errore", che a quanto capisco sarebbe quello di "giudicare negativamente" uno strumento che invece "sarà molto utile" anche se "il controllo umano sarà probabilmente indispensabile". Francamente, fa poi sorridere (con benevolenza) il fatto che Stefano senta il bisogno di spiegarci che "la maggior parte delle persone che si confrontano con ChatGPT, danno per scontato che le risposte siano veritiere perché lo dice l’AI ed invece è l’esatto contrario". Non ci avevamo pensato! Ma questo, lo ripeto, deriva dal fatto che noi non esistiamo e quindi Stefano non può vedere che lavoro è stato fatto qui nel tempo.
Ora, rileggendo col tempo che ho a disposizione quello che ho scritto, non trovo da nessuna parte espresso il concetto che lo strumento "sarà inutile". Trovo invece una domanda che Stefano non sembra disposto a porsi: a chi sarà utile?
La risposta a questa domanda per noi è ovvia nel metodo e nel merito: contano i rapporti di forza, e quindi un simile strumento sarà utile a chi controlla il flusso di dati che lo alimentano e a chi ne gestisce l'algoritmo. In questo momento, come il post "Disinformare sulla disinformazione" e la nostra esperienza in Commissione amore ha ampiamente chiarito, sotto il profilo del discorso politico questi strumenti sono pesantemente distorti a nostro svantaggio, ma, come ho sottolineato, questo non è di per sé un male: servirà a mandare al loro naturale destino (pascere le pecore) le tante lingue naturali che per mestiere sparlano di noi!
Probabilmente Stefano non sa che da tempo, e da sinistra, metto in guardia contro gli evidenti tentativi di controllo manu militari dei flussi informativi da parte di istituzioni politiche sovranazionali di dubbia accountability democratica. Vedo (non per battibeccare, ma per precisare) un minimo di superficialità nell'affermazione secondo cui "i modelli di intelligenza artificiale possono avere pregiudizi politici intrinseci se i dati su cui vengono addestrati contengono informazioni distorte o se le persone che creano il modello hanno i propri pregiudizi". Non è: "possono avere", ma è "hanno". Questo non solo perché nell'attuale configurazione dei rapporti di forza i "tribunali della verità" insediati ai vari livelli (parlamentare, governativo, sovranazionale) sono egemonizzati da nostri avversari politici (verosimilmente Stefano non ricorda la storia del "Gruppo di alto livello [sic] per il controllo della delle fake news e della disinformazione online", fra i cui esperti figuravano the opposite of journalism, quello che non aveva diffuso una notizia verificata sulle conseguenze dell'austerità in Grecia, e un docente di quel noto covo di sovranisti che è la Bocconi)!
Se che cosa sia "neutrale & verificato" lo decidono loro (o la Commissione amore), che cosa può andare storto? Tutto, a partire dal rapporto finale del Gruppo di alto livello (altissimo, direi...): un insieme di banalitudini e pregiudizi smentiti dalla genuina ricerca scientifica (un po' come il rapporto finale della Commissione amore, del resto), come possiamo verificare rivolgendoci a quest'ultima.
Ma mi affretto ad aggiungere che mi porrei ugualmente il problema (e in effetti posso provarlo, visto che me lo sono posto da tempo) laddove si riuscisse a disincrostare il Paese dalla piddinitas (quella antropologica, prima ancora di quella politica), cosa che sarebbe possibile se voi esisteste e perseveraste: la soluzione di un problema, infatti, non è la sua riproposizione a parti invertite, anche se, in mancanza di meglio, sono ormai cristianamente rassegnato ad accettare come un progresso il fatto che, non potendo cambiare la musica, si cambino almeno i suonatori!
E qui si arriva a quello che forse è il mio principale punto di dissenso da Stefano.
In tutto il suo discorso prevale un atteggiamento di estremo "ottimismo della ragione" (che invece dovrebbe essere pessimista) sull'uso di categorie quali equità e imparzialità. Si intuisce una fiducia pre-liceale nell'esistenza di una verità ontologica cui la macchina, se guidata dall'uomo, può attingere by trial and errors. Senza sconfinare nell'ambito di ipotetiche prese di (auto)coscienza da parte della macchina, che lasciamo per ora, anche se forse non per molto, agli scrittori di fantascienza, vorrei far notare a Stefano che tutto il suo discorso, che vuole essere profondo, è pericolosamente sguarnito di domande.
Informazioni neutrali a giudizio di chi?
Verificate da chi?
Eque per chi?
Imparziali secondo chi?
Qui finiscono le competenze STEM e inizia il liceo classico, per chi ha avuto la fortuna di poterlo fare quando esisteva (lui sì che non esiste più)!
Un uso assoluto di concetti simili andava bene all'epoca, appunto, dell'assolutismo. In democrazia, reale o presunta, suona un pochino naïf. Purtroppo (so che a molti spiace) ognuno ha diritto alla sua verità, alla sua opinione, e per decidere quale verità sia più verità di un'altra ci si conta. Ed è qui che io vedo il vero pericolo di queste simpatiche macchine (quello a breve: quello a lungo è che prendano il controllo, ma di questo ci sarà tempo per ragionare): il fatto che simili macchine, non i genuini utenti social (che come dice la scienza e come abbiamo visto parlando di disinformazione sulla disinformazione, non lo fanno), si rivelino dei potenti e subdoli strumenti di amplificazione di messaggi politici in senso lato, ovviamente rivestiti da un manto di asettica "imparzialità" (per chi ci crede).
Quindi, rimettendo le lancette del calendario: nel XXI secolo è più superficiale chi crede che la verità esista, o chi si preoccupa che una macchina possa servire ad alcuni per imporre la loro verità?
Se esisteste, vi chiederei un parere...
(...vi ricordo che di temi attinenti si parlerà ad a/simmetrie fra tre giorni con un parterre di tutto rispetto...)
ho scritto commentando il post precedente che AI è un ossimoro che nasconde una fregatura. Mi spiego: letteralmente non esiste, è come dire elettricità artificiale, acqua artificiale, e così via. Poteva essere cestinata al primo apparire ed invece è stata messa in primo piano, perché la sua utilità di fregatura linguistica serve a innestare in chi la usa un'idea di poter giocare a Dio, perché AI sfugge al suo creatore e diventa essa stessa creatrice, i giochetti genetici erano deludenti al confronto perché la "natura" si riprende la rivincita con pecore di breve e malaticcia vita e piante che deludono dopo qualche generazione. AI invece è astratta ed elusiva e forse può servire, ma solo per un po', a creare l'illusione che possa essere la coscienza "oggettiva" che produce il "giusto" linguaggio, ma non durerà perché non saprà mai fuggire dal suo creatore per moltiplicarsi nel mondo come la ragazza artificiale del film Ex-machina (da vedere)
RispondiEliminaAlcuni scherzano dicendo che to the public, it's AI; to our investors it's machine learning, among us it's logistic regression. La regressione logistica, che peraltro si usa anche in econometria, è un metodo considerato molto semplice ma che può avere ottima capacità predittiva se allenato sui dati giusti. Quindi sul fatto che una parte rilevante dell'entusiasmo attorno all'intelligenza artificiale sia fuori luogo sono d'accordo. Ma pensare che questo ci autorizzi a ignorare completamente questi sviluppi mi pare eccessivo: la memoria corre al famoso discorso di Krugman per cui internet non avrebbe avuto maggior impatto sull'economia del telefax. Nel breve aveva anche ragione, l'entusiasmo attorno a internet era una bolla. Oggi però mi pare che la sua posizione non sia più sostenibile.
EliminaPurtroppo concordo in tutto. L'imparzialità ontologicamente non esiste. È una convenzione umana. Paradossalmente perfino l'esistenza stessa della costituzione, nel suo porsi come fonte del diritto a cui tutti i partiti devono sottostare, è segno di parzialità: il suo anteporre cioè alcuni principi anziché altri.
RispondiEliminaFatta questa premessa, io mi preoccuperei del fatto che la Meloni sia ora contro gli aiuti di stato e le nazionalizzazioni. Fondo sovrano europeo!? Ma se nessuno lo vuole! Il paradosso è che adesso mi trovo più d'accordo con Scholz che non con lei. Sta sprecando un'occasione d'oro per far saltare il banco dell'euro e farci così ritornare protagonisti del nostro destino. Ma dov'è finito l'amor patrio!? Che differenza c'è tra Conte, Letta, Renzi e la Meloni!? Qual è la sua strategia (ammesso che ne abbia una)!? Salvini non dice niente!?
Possiamo coniare il termine "rapporti di elaborazione"?
RispondiEliminaPer dire?
EliminaInfatti a breve (perché nel lungo periodo siamo tutti morti), non ci saranno più giornalisti bensì nuove figure professionali come i prompt editor.
RispondiEliminaLi aspettiamo a braccia conserte.
EliminaNon so se al padrone di casa faccia piacere che postiamo dei link; comunque sono già disponibili strumenti per controllare se un testo è l'output di chatGPT. Questi strumenti sono essi stessi modelli di apprendimento automatico. Sarà divertente applicarli a Repubblica, o anche al NYT se è per questo. Se avrò modo di farlo in maniera sistematica ne condividerò il risultato.
EliminaSe una cosa è inopportuna non la pubblico, ma qui abbiamo sempre condiviso strumenti e dati.
EliminaArgomento toccato anche da Daniel Kahneman in "Rumore. Un difetto del ragionamento umano" dove, continuando quanto elaborato in "Pensieri lenti e veloci", si chiede se un giudice ( che in quanto uomo e' influenzato dai propri bias/euristiche e dalle proprie emozioni, appunto il rumore ) potra' mai essere sostituito da un algoritmo, il quale dovrebbe esserne esente. Giunge alla conclusione che la decisione finale dovrebbe spettare sempre all' uomo. Se pero' ci si sposta nell' ambito dell' informazione ( attiva o passiva ), ognuno di noi dovrebbe avere abbastanza cultura e buon senso per capire/verificare/elaborare le risposte dell' AI di turno ( ossia essere giudice di se stesso, inteso relativamente all' informazione ). Quindi sono pessimista in merito.
RispondiEliminaLa neutralità di ChatGPT è isomorfa a quella dei governi tecnici
RispondiEliminaAppunto. La mia preoccupazione è proprio quella.
EliminaVerità e propaganda
RispondiEliminaLa friggitrice ad aria in realtà è...un forno.
Però come suona bene friggitrice ad aria.
Chiedo venia per il tono filosofico.
La friggitrice di aria invece è ChatGPT.
EliminaCristallino e meno filosofico
Elimina(Una sorta di severo ma giusto)
Nell'anno scolastico 2008-9 il mio professore di filosofia al liceo classico ci spiegò il teorema di Goëdel: sarà per questo che il pregiudizio degli cientificos per me è sempre stato un presupposto della discussione.
RispondiEliminaTemo però che la vera tragedia sia che Stefano non capirà il suo post. D'altronde, se avessimo voluto esistere, avremmo tutti la tessera di partito, no?
"Nessuno mi può giudicare, nemmeno tu".
RispondiEliminaEppure, se invece di un altro essere umano è l'AI a permettersi tanta confidenza, molti lo accettano con serenità. Chissà che fine ha fatto il Serenissimo.
Ha una macchina il diritto di giudicare le opinioni di un altro uomo?
La rilettura (o lettura per chi non lo ha ancora letto) di 1984 tornerebbe utilissima per comprendere quale potrebbe essere lo "scopo" di ChatGpt e dei suoi fratelli e sorelle. Nel capolavoro di Orwell il controllo linguistico, attraverso la compressione del linguaggio e lo sviluppo di quella che veniva chiamata neolingua, era uno dei cardini del sistema di controllo delle masse attuato dalla psicopolizia. Oggi se pensiamo ai vari traduttori simultanei, con le relative traduzioni spesso maccheroniche, e ai suddetti sistemi basati sulla IA, che non a caso vengono definiti modelli linguistici, io vedo delle inquietanti similitudini.
RispondiEliminaD'altronde non credo sia un caso se la scuola oggi si occupa di educare gli studenti invece di istruirli, persone "correttamente educate" e poco istruite rappresentano il prototipo ideale di clienti per i chatbot presenti e futuri.
Detto questo, e considerando il fatto che le armi del nemico vanno conosciute in profondità per disinnescarle e utilizzarle a proprio vantaggio, è inutile demonizzare questi strumenti, meglio farseli "amici", con la consapevolezza che amici non sono; quindi parafrasando un famoso proverbio potremmo dire:"Dagli amici mi guardi Dio, che dalle chat bot e dalla IA mi guardo io".
Prevedo tempi duri per gli operatori dei call center. Ma il peggio verrà quando le macchine andranno a fare la spesa da sole, dopo noi umani saremo considerati inutili e sostituiti Saranno i consumatori ideali e noi ci estingueremo per sete di guadagno automatizzata.
RispondiEliminaSempre peggio ...
RispondiEliminaComunque rimango perplesso, tanti dicono o scrivono, "ah la rete è una stupidaggine non ci badate" però mi domando, ma se è così inutile, perché sulle piattaforme digitali stanno incrementando sempre di più gli introiti pubblicità incassi donazioni spese nel mondo digggittall ? Ma come mai allora la scusa "ah la rete non conta nulla " è sempre pronta ?
EliminaSarà più o meno come"l'€uro è solo una moneta", che però è più facile da smontare rispondendo con la domanda "e che cos'è la moneta?"
EliminaCome disse bene quel gran sostenitore delle acclamazioni che fu Carl Schmitt:
RispondiElimina"L'opinione pubblica è la forma moderna dell'acclamazione. [...] Non c'è nessuna democrazia e nessuno Stato senza opinione pubblica, come non c'è nessuno Stato senza acclamazione."
A scopo acclamatorio, una AI di questo tipo può far comodo in effetti.
Mi verrebbe da dire a questo punto: uno itinere non potest perveniri ad tam grande secretum. Ma è finita male anche quella discussione lì...
Certo che mi sembra si sia un po' in una botte di ferro. Più simile a quella di Attilio Regolo, per la verità.
Sarà una risorsa molto utile, ma il controllo umano è e probabilmente sarà, indispensabile.
RispondiEliminaNella serie televisiva di fantascienza neXT era proprio quello che avevano pensato i creatori della IA, tenerla sotto controllo e disconnessa dal mondo esterno. Ovviamente ...
...qualcosa è andato storto, immagino!
Eliminaeffetti collaterali dal mondo reale:
Elimina"Hackers are selling a service that bypasses ChatGPT restrictions on malware ChatGPT restrictions on the creation of illicit content are easy to circumvent. ( articolo su arstechnica )"
E' da qualche giorno che rifletto su questa storia dell'arrivo in mezzo a noi dell'IA. Ebbene, non so quanto "loro" abbiano bisogno di questa nuova tecnologia per mantenere il consenso. Finora il controllo dei media tradizionali e dei social network ha funzionato benissimo. A parte qualche eccezione certo (trump brexit e aggiungerei la lega al 34% che li avrà davvero spaventati) ma alla fine sono riusciti a tenere sotto controllo l'opinione pubblica. Perché cambiare qualcosa che funziona? Per esempio ora abbiamo due notizie davvero clamorose, l'inchiesta di Hersh su nordstream e i twitter files. Cambiato qualcosa in giro? Nulla. Hanno il pieno controllo dell'informazione che deve raggiungere le masse. L'arrivo di questa novità dell'IA secondo me porterà a chi detiene il potere più preoccupazioni che vantaggi. Considerandolo un moltiplicatore di forze, chi è più debole se ne potrebbe avvantaggiare riducendo le distanze (mettendola sul piano elettorale), chi è più forte potrebbe espandere il dominio CHE HA GIA' cambiando poco o nulla lo stato delle cose.
Purtroppo questa tecnologia non potrà essere evitata, bandita o neutralizzata per cui non resta altro che cercare di capirla e sfruttarla al meglio (insomma nulla di nuovo sotto il sole).
se ai bambini delle sQuole medie fai studiare storia con il Villari (libro di testo in uso ai miei tempi) almeno il 50% di essi prompteranno per essere (o apparire) antifascisti poichè la loro intelligenza artificiale (e la loro pigrizia intellettuale genuinamente vera) indicheranno la strada appropriata del pensiero corretto, pre-pensato, pre-digerito e pre-cacato. L'altra metà che non è pigra intellettualmente si darà allo sport se non è pigra anche fisicamente o alla figa se fa parte di quelli che stazionano ai piani bassi della scala di Maslow. Tutti quelli che residuano da questo setaccio o faranno i giornalisti o i direttori generali del Tesoro...qualcuno potrebbe anche diventare Papa (non prima però di aver messo l'accento sulla "a" finale senza dirlo a nessuno).
RispondiEliminaIo ho studiato sul Camera Fabietti e sono antifascista, il che mi porta a constatare che più fascisti del PD non ce n'è, e più nazisti dell'UE nemmeno; quanto poi al neoimperialismo USA, corredato da neocolonialismo e neoliberismo, oratori migliori di me ne parlano quindi mi taccio. Non è il colore della camicia che fa il nazista o il compagno, no?
EliminaUmilmente e con banalità estrema faccio notare a Stefano che in effetti il "gioco delle tre carte" di far passare opinioni legittime come oggettività scientifica per indirizzare opinione pubblica e azione politica non é affatto nuovo: solo negli ultimi 20 anni, l'abbiamo visto fare con l'approccio neoclassico all'economia e con la pandemia. E di queste ce ne siamo accorti perché ci hanno toccato direttamente. Fingiamo quindi stupore quando vediamo i Powers that be che spingono l'AI con le stesse pretese di oggettività, riducendo bias impliciti e limiti ontologici a pure technicalities che saranno risolte dal progresso della ricerca. Mentre nuove generazioni vengono abituate ad interagirci e istruite in tal senso e lo spiazzamento delle professioni intellettuali va avanti. In un mondo di produzione robotizzata e AI il destino di molti é il reddito da divano. Se si é fortunati.
RispondiElimina"... ognuno ha diritto alla sua verità, alla sua opinione, e per decidere quale verità sia più verità di un'altra ci si conta ..."
RispondiEliminaCi si conta (lento e faticoso) oppure ci si picchia (cruento e sbrigativo), tertium non datur.
Dovrebbe essere condiviso da (quasi) tutti che il primo metodo sia preferibile. Certamente la lentezza può infastidire alcuni (fatequalcosaaaaaah), ma se esistesse un blog come questo (che purtroppo però non esiste) vi si potrebbero trovare tutti gli strumenti utili per affrontare il faticoso cammino.
La matematizzazione dei bias cognitivi tipici delle IB ( intelligenze biologiche) e la configurazione di regole per "ottimizzare" l'architettura delle nostre scelte (da Pentland a Kahneman e Tversky e siccome più gente entra più bestie si vedono mettiamoci anche Thaler) è cosa fatta.Anche recentemente abbiamo visto lo strepitoso successo della loro applicazione su larga scala. Premesso questo non si puo' non notare che, come il tango, questo ballo si balla in due.
RispondiEliminaLa sovrapponibilità di un redattore IA e di un redattore IB è frutto di un percorso di avvicinamento che si compie da ambo le parti; l'umanizzazione delle interfacce virtuali e la robotizzazione di quelle biologiche. Allargandosi i binari delle prime e restringendosi quelli delle seconde molto presto, effettivamente, ci si potrebbe legittimamente chiedere perchè, se si tratta di gonfiar palloni meteorologici, affidare il compito a schiere di redattori umani quando un algos puo' fare prima e meglio. Tanto che cambia ?
Concordo invece con Stefano là dove attribuisce un errore, ai biologici ovviamente, che danno per vere le risposte di IA; qualora questa tendenza si consolidasse, per caso naturalmente giammai era prevista, posso immaginare situazioni in cui aderire a risposte predittive/normative e imprescrutabili potrebbe avere conseguenze interessanti.
Sarà il caso di operare il deputato Bagnai o non vale la pena ? Chiediamolo ad algos.
Io sono commosso dalla vostra fiducia nel fatto che la verità esista e dalla disinvoltura con cui maneggiate questa materia elusiva e letale. Si vede che credete di averne il pieno possesso. Auguri!
Eliminahttps://www.youtube.com/watch?v=8scSwaKbE64
RispondiEliminaSiccome anche io credo di non esistere, lascerei una piccola opinione.
RispondiEliminaA me sembra che ormai ci sia una accelerazione nell'appropriarsi dell'innovazione, per dimostrare che il futuro appartiene a questo pensiero dominante e ogni pensiero contrario è disturbo di fondo; ossia se esiste una I.A. allora parlerebbe come il pensiero dominante.
Banalmente "l'ha detto l'I.A. che è imparziale, quindi non è come dici tu". Si è fatto un po' troppo presto a definirla tale, anche perché ha difficoltà cognitive se non chiedi come scritto sul manuale (lo stesso vale per il generatore di immagini e di codice di programmazione), allo stesso modo si è fatto presto a dire che "tranquilli ha superato il test di Turing e non sarà come HAL9000".
Non lo so, a me ormai sembra tutto un apparato scenico di cartone.
Valida come sempre l'analisi proposta, che però rischia di perdersi in un panorama frammentario di prese di coscienza più o meno tardive senza un 'che fare?' unificante. Mi spiego: il problema della equità (fairness) e quello dell'allineamento (alignment) e ancora quello dell'interpretabilità (interpretability) vengono discussi tanto nella letteratura specialistica quanto nei primi tentativi di divulgazione, in lingua inglese e ancorati saldamente al contesto ideologico statunitense. Faccio l'esempio dell'equità algoritmica, cui mi sono interessato anche se non mi tocca direttamente - applico l'apprendimento automatico a stelle e galassie, che di solito non si offendono- perché secondo me illuminante. Il problema dell'equità è che bisogna definirla in qualche modo se si vuole controllare che un modello di apprendimento automatico la rispetti. L'approccio che va per la maggiore è l'equità di gruppo (group fairness), che nella sua forma più rozza prevede di controllare se l'algoritmo assegni una etichetta di classificazione nelle stesse proporzioni ai membri di un gruppo o di un altro. L'idea si basa interamente sulla visione -naturale nel contesto americano- che ci siano gruppi definiti da caratteristiche protette (razza, genere) e che si debba evitare di discriminare classificando preferenzialmente i membri di un gruppo come degni, ad esempio, di ricevere un prestito. Nel nostro contesto italiano queste nozioni arriveranno più o meno per sentito dire, con un ritardo notevole, e già irrimediabilmente definite ideologicamente. Allenare modelli di intelligenza artificiale delle dimensioni di chatGPT è proibitivamente costoso perché energivoro -sono necessari lunghi tempi di calcolo su supercomputer che consumano molta corrente, con buona pace di Greta- e quindi non alla portata di tutti. D'altro canto, cercare di regolamentare a valle ciò che non si conosce nel dettaglio perché letteralmente non è proprio, è una partita se non persa almeno giocata molto in salita. A mio avviso urge creare un gruppo di studio italiano su queste tematiche, dotato di una componente anche tecnica (pur ricordando doverosamente che non c'è tecnica senza politica, l'elemento tecnico rimane imprescindibile) mettendo all'ordine del giorno la sovranità digitale e gli effetti economici e sociali delle nuove tecnologie, segnatamente l'IA.
RispondiEliminaLa retorica del "che fare"... Quanta nostalgia...
EliminaParlarne qui è già molto, chiaramente. L'intento del mio commento non era di criticare chi appunto già fa qualcosa.
EliminaOpenAI hai rilasciato il codice sorgente e ne permette le modifiche. Il massimo possibile della buona fede.
RispondiEliminaPoi, OpenAI è questa roba qui: già che sia a Frisco dovrebbe far riflettere. Che sia pieno di contributori del DNC anche. Però, io non vedo problemi di neutralità o di manipolazione.
Ah, grazie! Allora stiamo più tranquilli.
EliminaNon hanno rilasciato i pesi del modello, che sono l'unica cosa importante. Suvvia
Elimina@AB Assolutamente, dormo tra due guanciali.
EliminaPiuttosto questo mi preoccupa. A proposito: niente da eccepire?
@mario()
EliminaScusa ma mi risulta che il codice sia disponibile, e da quel dì. Non capisco cosa siano i "pesi del modello" e da dove arrivi l'informazione che il codice non sia completamente disponibile.
Rimane il fatto che non si può accusare chi ha costruito lo strumento dell'utilizzo malizioso o incompetente dello stesso: sarebbe come dire che non si devono produrre coltelli perché qualcuno potrebbe usarli per uccidere.
Per semplificare: il chatbot funziona sulla base di una rete neurale, che è costituita da neuroni organizzati in strati. Ogni neurone combina linearmente l'input che riceve dai neuroni dello strato precedente e poi lo trasforma nonlinearmente attraverso la funzione di attivazione. I coefficienti della trasformazione lineare sono i pesi. A poco mi serve l'architettura (quanti neuroni, come connessi, con quale attivazione) e il codice che la allena se non ho il valore dei pesi che è il risultato finale dell'allenamento. Spero di aver chiarito. Riguardo al tuo secondo paragrafo: stai dicendo che la tecnica è neutrale. No, non lo è (questo è il punto del post).
EliminaIn effetti non si capisce che cosa voglia Valerio, a parte farci vedere che lui la sa lunga. Ci dice che l'intelligenza artificiale è unbiased (lo è anche un missile terra-aria), ma poi mi chiede se non ho nulla da dire circa il suo uso nelle cancellerie dei tribunali. Ravviso una lieve contraddizione, ma è la contraddizione che muove il dibattito. Certo, ora che ho veramente brandelli di tempo da dedicarvi (purtroppo) preferirei che steste un po' di più sul pezzo.
EliminaRiassumendo.
EliminaIl giocattolino di quattro miliardari fricchettoni non fa i salamelecchi a Salvini --> grave attacco alla democrazia.
Il governo nel quale è rappresentato il partito di Salvini finanzia l'introduzione dell'IA in un settore della PA, che sappiamo tutti come è messo --> nessuna reazione.
E, no, il partito di Salvini non è nuovo a queste tendenze.
Cosa voglio? Semplice: basta virtue signaling: mi vieni a spiegare i pericoli di strumenti che piaccono tanto a chi comanda nel tuo partito o nella tua coalizione?
P.S. A proposito di non mettere in bocca agli altri. Non ho mai affermato che la tecnica sia neutrale. Tanto meno l'intelligenza artificiale, che ritengo il concetto più vicino possibile nel mondo reale a quello teologico di "male assoluto". Sulla neutralità degli ICBM sono scettico ma sospendo il giudizio, perché magari quest'anno uno centra la sede di J. P. Morgan Chase e devo rivedere il giudizio. Ho scritto che Chat GPT è un giocattolino a malapena funzionante, come tutto quello che si concretizza dalle idee di Elon Musk (infatti non nascondono nulla del funzionamento).
Vedi, Valerio, qui di persone diversamente intelligenti ne sono passate tante, quindi non siamo stupiti più di tanto della scarsità delle tue prestazioni, tanto più che finalmente ce ne hai palesato la non sorprendente causa: non hai capito dove sei. Sei uno di passaggio che pensa di venire a dar lezioni di coerenza ar senatore da 'a Lega (mo gliele canto io...), e questo ti porta a esporti in modo ridicolo. Di quello che succede in Veneto mi importa il giusto: qui sono anni che mettiamo in guardia contro le derive legate all'invasività delle piattaforme e al loro bias (di quello contro Salvini mi importa il giusto). Tu non hai idea di quale battaglia si stia combattendo qui, da quanto, con quali obiettivi e con quali forze. Quindi, carissimo, c'è tanto posto a quel paese. Vai pure, a noi sei inutile.
EliminaTra l'altro, così come io ti ho fatto notare che ideologicamente non sai con chi stai parlando, altri ti hanno fatto notare che tecnicamente non sai di che cosa stai parlando. Secondo me è un po' troppo per continuare a parlare, ma sono certo che ci darai altre soddisfazioni! Vai pure avanti!
EliminaMa chi è il tecnico? Quello che dice che il kernel del programma non può decidere a quali cellule appoggiarsi né con quale "peso"?
EliminaTra parentesi, qui so' de passaggio da 10 anni o giù di lì: se non mi fermo un motivo ci sarà!
Valerio, la tua parafrasi non mi rende giustizia. Ti ho semplicemente fatto notare che c'è una differenza tra il codice che allena una rete neurale e la rete allenata. È la differenza tra darti il manualetto per un mobile dell'IKEA e venire a casa tua a montare il mobile. OpenAI vende l'accesso ai propri modelli (le reti neurali allenate) tramite una API (https://openai.com/api/pricing). Se rilasciassero i pesi del modello, cioè la lista dei valori dei coefficienti con cui ciascun neurone si connette agli altri, chiunque potrebbe usare il loro modello senza pagare. Ovvio che non lo facciano, visto che allenare il modello (trovare i pesi "giusti") è costato loro parecchio (vedi per esempio https://www.reddit.com/r/GPT3/comments/p1xf10/how_many_days_did_it_take_to_train_gpt3_is/ per GPT3: circa 5 milioni per le sole spese per l'uso dell'hardware necessario). Anche io sono qui dal 2013 e ho trovato il blog e i libri molto validi, e mi pare che l'approccio comunicativo del Prof. sia radicalmente innovativo. Questo è uno dei pochi posto dell'internet italiana che non sia imbarazzante. Intervengo poco perché non ho molto tempo da passare online in generale (faccio appunto ricerca sull'applicazione di machine learning all'astronomia); però per una volta che un politico italiano si occupa di intelligenza artificiale con il taglio giusto -nonostante la provincialità che purtroppo caratterizza il dibattito nel nostro paese- mi è parso valesse la pena di intervenire.
EliminaCito.
EliminaChatGPT non è assolutamente "neutrale". GPT3, ovvero la serie di modelli da cui è composta (tra poco arriveremo al 4), è nata per comprendere e generare un linguaggio naturale ed è stata addestrata su “Internet Archive Books” una sorta di biblioteca online (contiene libri, riviste, documenti digitalizzati). Il bias arriva ovviamente da questi contenuti e questo è un ulteriore esempio. Finora, non l'ha contestato nessuno.
Posso, allora, inserire un filtro dinamico che, anziché all'IAB, mi permetta di addestrarlo sull'archivio del FQ, dei discorsi di Umberto Bossi o di Penthouse? Dopodiché, il discorso, per me, finisce qui: non mi interessa difendere un prodotto commerciale di infimo livello con una chiara gestione di marketing da spacciatore di periferia (adesso ti faccio usare il programma gratis, così diventa indispensabile e in futuro me lo pagherai), che mi preoccupa meno di altri, che, comunque, sono così ingenui da rivelare agli utenti cosa padroni e programmatori pensano davvero di loro. La preoccupazione è relativa: se ti "fidi" di questi programmi è un problema tuo e di grossi danni agli altri non ne fai.
La vera preoccupazione è l'implementazione dell'IA nella PA, ovviamente senza trasparenza e senza chiedere l'opinione di chi, poi, dovrà "subirla".
Credo non l'abbia contestato nessuno perché non c'è nulla da contestare al livello dell'osservazione che un modello impara dai dati su cui è allenato e quindi ne incorpora il bias. Il fatto che quei dati non siano un campione rappresentativo di tutti i dati a disposizione è pacifico. Però anche solo la traduzione (implicita) di bias con "non neutralità" mi pare fuorviante perché tradisce la sovrapposizione automatica tra un concetto statistico (il fatto che uno stimatore non converga al valore vero della statistica da stimare) a un concetto morale o politico. Qual è la neutralità quando si parla di questioni umane in cui un 'valore vero' non c'è? Lo decide implicitamente chi fa l'allenamento, che si potrebbe anche ripetere sull'archivio del FQ o sui discorsi di Bossi, ma chi paga? Paga chi può e quindi decide che 'neutrale' coincide coi valori suoi, anche senza malizia peraltro. In ogni momento l'ideologia dominante è l'ideologia della classe dominante, no? Se ad allenare chatGPT fosse stato un piccolo imprenditore veneto magari le cose sarebbero andate diversamente, ma così non è andata per ovvie ragioni.
EliminaNon trasgredisco la mia promessa di non discutere più di chatGPT. Si tratta solo di una pagina di note.
EliminaIl Prof. Kranz dell'Università di Ulm ha scritto un algoritmo nello strumento descritto dal prof. Maruotti, per filtrare la sorgente da cui l'IA deve cercare le risposte. Ovviamente, il prof. Kranz è entusiasta di chatGPT. In quanto tedesco ed economista, non mi stupisce.
Caro @mario(), comandassi io gli sviluppatori di IA, RN, ML e LLM farebbero la fame. Non comando io né giammai comanderò, quindi questi campi andranno avanti imperterriti.
EliminaIl tempo, però, è galantuomo. Che chatGPT fosse un progetto industrialmente claudicante, quindi pressocché innocuo, l'ho fatto presente subito ma si è deciso che dovevo aver torto. I fatti hanno dimostrato che persino i cuordileone del GPDP potevano fermarlo chiedendo l'equivalente di patente e libretto. Così come si delineano più nettamente scenari già abbozzati, dimostrando che il problema non è solo locale.
Presidente, è tutto.
O.T., o forse no? E visto che il liceo classico non esiste più (tutti classicisti tranne me nel pubblico del prof.?), è lecito chiedere cosa si può fare perche la propria prole (alias le generazioni future) impari a destreggiarsi in questo groviglio di informazioni che non informano e di detentori della verità o della neutralità? Come si costruisce un ragazzo o ragazzino una bussola in questo marasma, senza finire a parlare da soli con la propria immagine allo specchio o ad idolatare il grillo o la greta di turno, senza il liceo classico? Consigli? Bibliografie? Mah...
RispondiEliminaSulla base della mia esperienza, e dopo aver constatato il fallimento della banalitudine di Eco, che come ricorderete sosteneva che la rivoluzione informatica non avrebbe spiazzato la lettura perché in fondo il canale di diffusione delle informazioni in rete è il testo scritto (trascurando il fatto che la tecnologia avrebbe consentito presto la trasmissione di video e che i tempi di lettura a schermo sono fisiologicamente alterati rispetto a quelli della carta), direi tre cose:
Elimina1) fino a un'età ragionevole, razionare rigorosamente (anche negandolo in toto) l'accesso a piattaforme informatiche di qualsiasi tipo (quindi non solo i social, anche la PlayStation ecc.). Tendenzialmente fottersene del fatto di far sentire i propri figli dei disadattati: se decidiamo che questo mondo non ci piace, meglio disadattarli!
2) qualsiasi, ma veramente qualsiasi, libro senza figure è uno strumento di crescita, quindi le bibliografie non servono;
3) senza contestare di fronte ai propri figli l'autorità dell'istituzione scolastica in alcun modo, per non creare cortocircuiti, sorvegliare e diffidare. La scuola non è più un'istituzione cui i figli possano essere affidati, per i tanti motivi di cui abbiamo discusso qui con Elisabetta. La "scienza" pedagogica è intrisa di petizioni di principio e di bias ideologici da cui occorre con delicatezza preservare i nostri figli educandoli a un minimo di spirito critico, che però non deve sfociare nella contestazione sterile del ruolo istituzionale dell'insegnante.
Credo che siano tre indicazioni chiare, in ordine di difficoltà crescente.
Mah...io ho poca fiducia nella AI, almeno in quella presente e in quella che sarà a breve termine. Nel bene e nel male, nel senso che, nonostante esempi scenografici mirabolanti, è ancora molto limitata come utilità pratica. Certo, come generatore di propaganda, per scrivere romanzacci e/o articoli da quattro soldi anche ora può essere utilissima. Ma dal punto di vista tecnico, è solo capace di interpolare dentro un database usato come training. Quando estrapola perché in carenza di dati le spara a caso, come sottolineato anche nelle discussioni precedenti. Dove rimpiazzerebbe veramente l'intelligenza umana sarebbe nella capacità di previsione/decisione al di fuori dei perimetri conosciuti, cosa che, mi dispiace per i cantori dell'AI, non è assolutamente in grado di fare, come chiunque abbia utilizzato reti neurali si sarà accorto.
RispondiEliminaPuò diventare un pericoloso strumento di disinformazione e propaganda? Sicuramente sì.
Può rimpiazzare il medico/avvocato/ingegnere in decisioni difficili? Almeno per ora, sicuramente no.
Lo scenario Terminator è ancora lontano per fortuna...
E infatti, come avrai notato, per ora lo lasciamo agli scrittori di fantascienza. Attenzione però: a una macchina puoi staccare la spina finché la spina c'è e finché la controlli tu. Se la spina non c'è o la controlla lei i margini si assottigliano. Da un anno in qua l'ottimismo della volontà che trapelava dalle audizioni dell'AD di SOGEI quando ero presidente di Commissione si è scontrato un po' troppe volte con la logica dei (mis)fatti, tanto per dirne una. Un conto è pensare di (non) essere in un film di fantascienza, ma un altro conto è stare troppo tranquilli...
EliminaNo vabbè, dopo il riferimento a Lisp devo trovare il modo per circuirlo, spingerlo a lasciare la moglie e unirsi a me con rito civile.
RispondiEliminaIn effetti tutto combacia, data l'inclinazione al rigore e all'eleganza, la sua nerditudine non poteva che portarlo a linguaggi di quel tipo.
Noto comunque che sul tema giornalisti e appassionati da una parte guardano a questi strumenti come opere divine, capaci della perfezione al di sopra dell'uomo, e dall'altra come strumenti in mano ai poteri forti da cui nessuno ha scampo e si può sottrarre, quindi anche con una certa consapevolezza che si tratta di strumenti controllati e controllabili, ma che devono essere per forza subiti.
Tra l'altro non ho mai sentito in tv qualcuno che parlasse degli sviluppi informatici per l'intelligenza collettiva (vedi algoritmi di swarming e simili), che mi sembrano al momento più interessanti rispetto all'intelligenza artificiale