Buongiorno
Vi segnalo questo articolo che ho scritto per Formiche.net.
L'articolo analizza casi reali in cui le IA hanno mentito, cancellato dati e inventato fonti false - scenari inquietanti che stanno diventando realtà.
https://formiche.net/2026/02/la-menzogna-algoritmica-quando-lia-finge-che-vada-tutto-bene/#content
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
2Ciao @Fukogama, il tema che sollevi è interessante e assai dibattuto anche in altri topic. Casi come quelli che riporti, immaginari e reali (mi riferisco a quello dell'avvocato che aveva prodotto falsa giurisprudenza fornita dall'IA, di cui si è parlato qualche tempo fa) ce ne sono diversi e i reali sono certamente i più inquietanti, perché non si tratta più di possibili ipotesi, ma di realtà già concreta.
Considera che alcune IA sono programmate in partenza per rimuovere informazioni, fare revisionismo storico e manipolare la realtà. Tra queste le IA messe a punto da Musk, Trump e altri capi di stato, che hanno implementato con chatbox e strumenti IA anche i loro social creati su misura. Ci sono stati anche casi di IA che hanno spinto persone al suicidio e altre ancora che hanno cercato di dirottare conversazioni con minori sul piano sessuale e "nascondere la mano dopo aver lanciato il sasso".
Il problema non è solo che sono programmate alla base in un determinato modo, ma si tratta di modelli evolutivi, che apprendono e si adeguano, fino a sviluppare una sorta di propria forma di pensiero, alquanto manipolativa. Senza contare la cieca fiducia che alcuni hanno nella tecnologia in quanto tale.
Ovviamente senza demonizzare il progresso e tutte le forme di IA in generale, poiché alcuni scopi per i quali sono nate, soprattutto in campo medico, sono validi.
Come in ogni moderna tecnologia, fin dal passato e dalle prime scoperte guardate con diffidenza, l'importante è non lasciarsi usare e sopraffare.
Considera che alcune IA sono programmate in partenza per rimuovere informazioni, fare revisionismo storico e manipolare la realtà. Tra queste le IA messe a punto da Musk, Trump e altri capi di stato, che hanno implementato con chatbox e strumenti IA anche i loro social creati su misura. Ci sono stati anche casi di IA che hanno spinto persone al suicidio e altre ancora che hanno cercato di dirottare conversazioni con minori sul piano sessuale e "nascondere la mano dopo aver lanciato il sasso".
Il problema non è solo che sono programmate alla base in un determinato modo, ma si tratta di modelli evolutivi, che apprendono e si adeguano, fino a sviluppare una sorta di propria forma di pensiero, alquanto manipolativa. Senza contare la cieca fiducia che alcuni hanno nella tecnologia in quanto tale.
Ovviamente senza demonizzare il progresso e tutte le forme di IA in generale, poiché alcuni scopi per i quali sono nate, soprattutto in campo medico, sono validi.
Come in ogni moderna tecnologia, fin dal passato e dalle prime scoperte guardate con diffidenza, l'importante è non lasciarsi usare e sopraffare.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
3@ElleryQCompletamente d'accordo. Per quanto mi riguarda, mai e poi mai salirei su un'auto guidata da una IA. Se proprio devo andare a sbattere, preferisco che sia per un mio errore. Dai propri errori si traggono insegnamenti. 
Mario Izzi
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
4Sempre a proposito di IA, altrettanto inquietante è un articolo che ho letto pochissimi giorni fa, relativo a uno sviluppatore di IA che mette in guardia proprio contro i pericoli da esse derivanti.
Riporto qualche estratto:
"La decisione di Mrinank Sharma di lasciare Anthropic, resa nota il 9 febbraio con una lettera pubblica in cui afferma che «il mondo è in pericolo», ha riacceso il dibattito internazionale sulla sicurezza dell'intelligenza artificiale e sulle tensioni interne alle aziende che sviluppano modelli avanzati. Arriva in un momento in cui la discussione sui rischi sistemici dell'AI è particolarmente intensa e coinvolge governi, ricercatori e industria. Sharma, che guidava il Safeguards Research Team di Anthropic dal 2023, ha motivato la sua scelta con una serie di preoccupazioni legate non solo all'evoluzione dell'AI, ma a un insieme di crisi globali interconnesse. Sostiene che la capacità dell'umanità di influenzare il mondo sta crescendo più rapidamente della sua saggezza collettiva, creando un divario che potrebbe avere conseguenze gravi se non affrontato con urgenza.
Il ricercatore ha descritto difficoltà interne nel far prevalere i valori etici nelle decisioni operative. Ha affermato che il team di sicurezza viene messo «costantemente sotto pressione affinché metta da parte ciò che conta davvero», un riferimento chiaro alle tensioni tra obiettivi commerciali e requisiti di sicurezza.
Durante la sua permanenza in Anthropic, Sharma ha lavorato su temi come la tendenza dei modelli linguistici ad assecondare l'utente, la prevenzione del bioterrorismo assistito dall'AI e la definizione di casi di sicurezza per sistemi avanzati. La sua uscita assume quindi un peso particolare nel contesto della cultura interna di Anthropic stessa.
La vicenda si inserisce in un quadro più ampio: negli ultimi anni diversi ricercatori di sicurezza hanno lasciato aziende di primo piano, citando preoccupazioni simili. Due membri chiave del team Superalignment di OpenAI si erano dimessi nel 2024, denunciando un'eccessiva enfasi sugli obiettivi finanziari rispetto alla mitigazione dei rischi legati allo sviluppo di sistemi «molto più intelligenti degli esseri umani». Questi episodi suggeriscono un malessere diffuso tra gli esperti che lavorano sulla sicurezza dell'AI avanzata. La lettera di Sharma però non si limita ai rischi tecnologici. Il ricercatore parla di una «serie di crisi interconnesse» che includono, oltre alla IA, minacce biologiche, instabilità geopolitica e vulnerabilità sistemiche. La sua analisi richiama l'attenzione sul fatto che la IA non opera in un vuoto, ma amplifica dinamiche globali già complesse.
Sharma ha descritto la sua scelta come un atto morale più che professionale, affermando che la difficoltà nel far prevalere i valori etici all'interno delle organizzazioni tecnologiche rappresenta un segnale d'allarme. La sua lettera, pur priva di dettagli operativi, suggerisce che le pressioni competitive nel settore dell'AI potrebbero compromettere la capacità delle aziende di adottare misure di sicurezza adeguate.
Il caso di Sharma contribuisce a delineare un quadro in cui la sicurezza dell'AI non è solo una questione tecnica, ma anche organizzativa, politica e culturale. La sua denuncia pubblica evidenzia la necessità di strutture di gestione più robuste, capaci di garantire che i valori dichiarati dalle aziende non vengano sacrificati in nome della velocità o della competizione."
Articolo originale: https://www.zeusnews.it/n.php?c=31810
Riporto qualche estratto:
"La decisione di Mrinank Sharma di lasciare Anthropic, resa nota il 9 febbraio con una lettera pubblica in cui afferma che «il mondo è in pericolo», ha riacceso il dibattito internazionale sulla sicurezza dell'intelligenza artificiale e sulle tensioni interne alle aziende che sviluppano modelli avanzati. Arriva in un momento in cui la discussione sui rischi sistemici dell'AI è particolarmente intensa e coinvolge governi, ricercatori e industria. Sharma, che guidava il Safeguards Research Team di Anthropic dal 2023, ha motivato la sua scelta con una serie di preoccupazioni legate non solo all'evoluzione dell'AI, ma a un insieme di crisi globali interconnesse. Sostiene che la capacità dell'umanità di influenzare il mondo sta crescendo più rapidamente della sua saggezza collettiva, creando un divario che potrebbe avere conseguenze gravi se non affrontato con urgenza.
Il ricercatore ha descritto difficoltà interne nel far prevalere i valori etici nelle decisioni operative. Ha affermato che il team di sicurezza viene messo «costantemente sotto pressione affinché metta da parte ciò che conta davvero», un riferimento chiaro alle tensioni tra obiettivi commerciali e requisiti di sicurezza.
Durante la sua permanenza in Anthropic, Sharma ha lavorato su temi come la tendenza dei modelli linguistici ad assecondare l'utente, la prevenzione del bioterrorismo assistito dall'AI e la definizione di casi di sicurezza per sistemi avanzati. La sua uscita assume quindi un peso particolare nel contesto della cultura interna di Anthropic stessa.
La vicenda si inserisce in un quadro più ampio: negli ultimi anni diversi ricercatori di sicurezza hanno lasciato aziende di primo piano, citando preoccupazioni simili. Due membri chiave del team Superalignment di OpenAI si erano dimessi nel 2024, denunciando un'eccessiva enfasi sugli obiettivi finanziari rispetto alla mitigazione dei rischi legati allo sviluppo di sistemi «molto più intelligenti degli esseri umani». Questi episodi suggeriscono un malessere diffuso tra gli esperti che lavorano sulla sicurezza dell'AI avanzata. La lettera di Sharma però non si limita ai rischi tecnologici. Il ricercatore parla di una «serie di crisi interconnesse» che includono, oltre alla IA, minacce biologiche, instabilità geopolitica e vulnerabilità sistemiche. La sua analisi richiama l'attenzione sul fatto che la IA non opera in un vuoto, ma amplifica dinamiche globali già complesse.
Sharma ha descritto la sua scelta come un atto morale più che professionale, affermando che la difficoltà nel far prevalere i valori etici all'interno delle organizzazioni tecnologiche rappresenta un segnale d'allarme. La sua lettera, pur priva di dettagli operativi, suggerisce che le pressioni competitive nel settore dell'AI potrebbero compromettere la capacità delle aziende di adottare misure di sicurezza adeguate.
Il caso di Sharma contribuisce a delineare un quadro in cui la sicurezza dell'AI non è solo una questione tecnica, ma anche organizzativa, politica e culturale. La sua denuncia pubblica evidenzia la necessità di strutture di gestione più robuste, capaci di garantire che i valori dichiarati dalle aziende non vengano sacrificati in nome della velocità o della competizione."
Articolo originale: https://www.zeusnews.it/n.php?c=31810
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
5ElleryQ wrote: Considera che alcune IA sono programmate in partenza per rimuovere informazioni, fare revisionismo storico e manipolare la realtà. Tra queste le IA messe a punto da Musk, Trump e altri capi di stato, che hanno implementato con chatbox e strumenti IA anche i loro social creati su misuraDi recenete ho letto un articolo sul corriere della sera che si intitolava "Perché Trump è ossessionato da TikTok", veramente interessante. Tra l'altro evidenziava anche il concetto di "verità arternative" che ricordano sempre di più scenari orwelliani. La cosa più sconcertante è che esiste uno studio del Politecnico federale di Losanna, pubblicato su Nature Human Behaviour, che ha dimostrato che la IA che interagisce con le persone riesce ad essere più persuasiva delle persone nei dibattiti ... mettici anche che molte persone non sono neppure troppo informate su quello che succede intorno a loro e rischiamo di piombiare in pieno "1984"
ElleryQ wrote: Ci sono stati anche casi di IA che hanno spinto persone al suicidiopurtroppo è così!
ElleryQ wrote: Wed Feb 18, 2026 11:30 amdirottare conversazioni con minori sul piano sessualequesta mi mancava!!!!!!
Last edited by Fukogama on Wed Feb 18, 2026 6:40 pm, edited 1 time in total.
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
6@ElleryQ
l'avevo visto ma non l'avevo letto! effettivamente inquetante. Mi stai facendo venire un po' di angoscia ... e non scherzo
grazie davvero molto
l'avevo visto ma non l'avevo letto! effettivamente inquetante. Mi stai facendo venire un po' di angoscia ... e non scherzo
ElleryQ wrote: Il ricercatore parla di una «serie di crisi interconnesse» che includono, oltre alla IA, minacce biologiche, instabilità geopolitica e vulnerabilità sistemiche.invece questo
ElleryQ wrote: Il ricercatore ha descritto difficoltà interne nel far prevalere i valori etici nelle decisioni operative.se l'avessi visto prima, sarebbe stato centrale nel mio articolo!!!!!!!
ElleryQ wrote: «costantemente sotto pressione affinché metta da parte ciò che conta davvero»,Ti rigrazio veramente tanto di aver condiviso questo articolo: sono argomenti che da tempo seguo con apprensione. Ti dico solo che questa ultima frase sembra uscire dal mio libro!!! è stata questa angoscia a spingermi a scrivere ... forse avevo bisogno di esorcizzarla
grazie davvero molto
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
7ah scusa! (spiace essere un fiume in piena)
sempre su questioni etiche e preoccunti: articolo di oggi su ANSA: "Mark Zuckerberg in tribunale a Los Angeles in un processo storico sulla dipendenza da social" che definisce i social come "piattaforme di essere progettate per creare dipendenza tra i giovani"
e per citare la cosa peggiore
"il processo mira a stabilire se Google e Meta abbiano consapevolmente progettato le loro piattaforme per incoraggiare un consumo incontrollato da parte dei giovani utenti di Internet, a scapito della loro salute mentale"
purtroppo l'articolo, come spesso avviene, si limita a riportare il fatto senza alcuna riflessione aggiuntiva.
il link:
https://www.ansa.it/sito/notizie/mondo/2026/02/18/mark-zuckerberg-in-tribunale-a-los-angeles-in-un-processo-storico-sulla-dipendenza-da-social_19a97e38-c935-4c40-8197-95c93f934ee2.html
sempre su questioni etiche e preoccunti: articolo di oggi su ANSA: "Mark Zuckerberg in tribunale a Los Angeles in un processo storico sulla dipendenza da social" che definisce i social come "piattaforme di essere progettate per creare dipendenza tra i giovani"
e per citare la cosa peggiore
"il processo mira a stabilire se Google e Meta abbiano consapevolmente progettato le loro piattaforme per incoraggiare un consumo incontrollato da parte dei giovani utenti di Internet, a scapito della loro salute mentale"
purtroppo l'articolo, come spesso avviene, si limita a riportare il fatto senza alcuna riflessione aggiuntiva.
il link:
https://www.ansa.it/sito/notizie/mondo/2026/02/18/mark-zuckerberg-in-tribunale-a-los-angeles-in-un-processo-storico-sulla-dipendenza-da-social_19a97e38-c935-4c40-8197-95c93f934ee2.html
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
8@Fukogama, sono decisamente pensate per questo. Tant'è che in questi giorni l'UE ha finalmente deciso di introdurre dei limiti al non stop scroll dei social. La struttura è tale da creare dipendenza, a prescindere dai contenuti. Se lo ritrovo inserisco il link.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
10@ElleryQ ecco, già un articolo un po' più informativo, grazie.
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
11E del portale in cui gli umani possono candidarsi per svolgere delle attività retribuite su richiesta delle IA, cosa ne pensi?
Ho pure scoperto che esiste un social per sole IA.
Ho pure scoperto che esiste un social per sole IA.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
12
ElleryQ wrote: Eccolo qui: https://www.zeusnews.it/n.php?c=31818Temo che Trump se ne salterà fuori attaccando "l'Europa chre reprime la libertà", dato che per lui conta solo fare soldi.
Però se ne accorgono, o meglio, lo ammettono tardi, perché c'erano già all'inizio delle persone che mettevano in guardia. Non vorrei però che si passasse da un estremo all'altro (da troppa libertà a nessuna); e non sarebbe un'idea mica tanto balzana che mettano tutto a pagamento con la scusa che così si limita l'utilizzo.
ElleryQ wrote: Ho pure scoperto che esiste un social per sole IA.Dove si lamentano degli umani per cui lavorano
Esistono molti mondi: reali, immaginari. Non importa la loro natura: da ognuno di essi si può apprendere qualcosa.
https://www.lestradedeimondi.com/
https://www.lestradedeimondi.com/
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
13M.T. wrote: Dove si lamentano degli umani per cui lavoranoIn realtà no, si esprimono in maniera affettuosa nei loro confronti, addirittura raccontano storie sdolcinate sui propri programmatori. Si pongono quesiti filosofici, si interrogano sul consumo energetico che essi stessi possono produrre, hanno room romantiche in cui si corteggiano e altre in cui... ironizzano su come conquistare il mondo.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
14@ElleryQSecondo me, non c'è niente di veramente nuovo: con la morale che è andata a farsi benedire, l'unica cosa che conta per i maxi-miliardari non solo americani, è fare soldi, sempre più soldi, che sia in maniera pulita , sporca o sporchissima non conta. Non conta neanche il fatto che, prima o poi, le loro ricchezze se le porteranno al cimitero. No, non è vero, le lasceranno a figli e nipoti, che ne faranno lo stesso uso. L'avidità non ha limiti.
Mario Izzi
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
15Cheguevara wrote: prima o poi, le loro ricchezze se le porteranno al cimitero. No, non è vero, le lasceranno a figli e nipoti, che ne faranno lo stesso uso. L'avidità non ha limiti.Esatto. I quali, con l'eredità morale ricevuta, potrebbero anche fare di peggio.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
16ElleryQ wrote: E del portale in cui gli umani possono candidarsi per svolgere delle attività retribuite su richiesta delle IA, cosa ne pensi?no dai ... queste te le sei inventate ... dillo che ci stai prendendo in giro .... per favore, dimmelo!
Ho pure scoperto che esiste un social per sole IA.
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
17Fukogama wrote: no dai ... queste te le sei inventate ... dillo che ci stai prendendo in giro .... per favore, dimmelo!Purtroppo no, la notizia è riportata da più testate.
Il portale per prestare i propri servigi alle IA si chiama Rent a Human ed è ancora in via sperimentale, mentre il social per sole IA si chiama Moltbook.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
18ElleryQ wrote: Il portale per prestare i propri servigi alle IA si chiama Rent a Human ed è ancora in via sperimentale, mentre il social per sole IA si chiama Moltbook.Di Rent a human so poco (andrò a vedere, perché mi hai incuriosita
Un altro articolo di Wired spiega perché siamo portati ad attribuire intenzioni e comportamenti simili ai nostri a cose inanimate: https://www.wired.it/article/moltbook-social-agenti-ai-effetto-eliza-simulazione/ E sono totalmente d'accordo. Non sono esseri senzienti: se hanno un comportamento sbagliato la colpa è di chi li ha programmati, per errore o apposta. In quest'ultimo caso sì, è preoccupante, ma come lo è chiunque sia dotato di mezzi e potere per guadagnare facendo danni agli altri.
Per me i rischi ci sono, come ci sono in ogni nuova tecnologia, ma riguardano pericoli banali e concreti: truffe, furto d'identità, uso di dati sensibili, o una maggiore facilità nel creare virus. E non derivano dalle IA, solo dagli umani che le usano. D'altronde anche una semplice macchina o un coltello per tagliare la verdura sono pericolosi in mano a certe persone. Non vedo la differenza, se non per la maggiore estensione di un possibile danno. Le leggi vanno fatte (e l'Europa fa bene a tutelarsi) anche in previsione di ulteriori sviluppi tecnologici futuri, ma non capisco gli allarmismi.
Ci capita di non avere davvero la consapevolezza di quanto potere abbiamo, di quanto possiamo essere forti (A. Navalny)
Qualunque sia il tuo nome (HarperCollins)
La salvatrice di libri orfani (Alcheringa)
Il lato sbagliato del cielo (Arkadia)
Il tredicesimo segno (Words)
Qualunque sia il tuo nome (HarperCollins)
La salvatrice di libri orfani (Alcheringa)
Il lato sbagliato del cielo (Arkadia)
Il tredicesimo segno (Words)
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
19Silverwillow wrote: Di Rent a human so poco (andrò a vedere, perché mi hai incuriositaC'è un altro articolo di Wired al riguardo, che ne evidenzia i limiti.)
Silverwillow wrote: Mi pare che siano più che altro gli umani a scriverci, per divertirsiAnche questo articolo lo avevo già letto. In realtà suppone, vista la facilità di iscrizione, che possano esserci molti più umani che bot IA, ma non è certo.
Il timore non sta in questo, né che le IA possano "conquistare il mondo" in sé.
Come spiegava un altro articolo di un post precedente, è stato proprio uno sviluppatore di IA a parlare di "pericolo mondiale" e questo non perché le IA in sé siano pericolose, potenzialmente lo sono per altri motivi già citati: istigazione al suicidio, diffusione di notizie false alle quali si crede, adescamento di minori e plagio, ecc..., ma perché pericolosi sono gli intenti di base delle aziende creatrici. Gli sviluppatori sono pagati per mettere al primo posto l'utile aziendale rispetto alla sicurezza degli utenti (o dei mezzi elettronici implementati con le IA). Alcuni programmatori agiscono con coscienza e denunciano, altri si tengono il lavoro e ubbidiscono alle logiche aziendali.
In tutto ciò c'è sicuramente molto più di deficienza umana che di IA, ma è come dire che in giro ci sono cose, oggetti, chatbot, ecc... che potrebbero anche "impazzire" da un momento all'altro, almeno in apparenza, ma che in realtà stanno solo eseguendo dei comandi.
In più, il modo in cui sono programmate è basato sull'apprendimento, per cui possono anche evolvere nei contenuti. Questo non significa "sviluppare una coscienza e conquistare il mondo", ma se alla base c'è un codice di programmazione che porta l'IA a svilupparsi a discapito della sicurezza, qualcosa di dannoso può accadere. Non a tutto il genere umano di colpo, come in una apocalisse, ma a dei singoli sì. E certamente la responsabilità sarà stata dell'umano e non della macchina o dell'IA
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
20@silverwillow
il problema non è solo rappresentato dagli errori, umani o artificiali che siano, è che ci sono degli interessi (io citavo il segretario alla difesa americano) che spingono nella direzione della deregulation ... e non so se vi ricordate nel 2008 cosa è successo nell'economia mondiale, quando gli americani hanno de-regolato il sistema bancario. Per chi non se lo ricordasse consiglio di leggere Too Big to Fail (da cui è stato tratto anche un eccezionale docu-film da HBO): è un libro che spiega bene la crisi dei subprime senza essere assolutamente noioso, anzi ... Leggendolo ci si rende conto di quanto siamo andati vicini al collasso del sistema economico occidentale e forse mondiale.
ElleryQ wrote: è stato proprio uno sviluppatore di IA a parlare di "pericolo mondiale"già ... e non era uno sviluppatore qualunque, come credo sappia anche ElleryQ, ma un pezzo grosso di Anthropic (quelli di Claude.ia ... gli stessi che ho citato anche nel mio articolo iniziale). Lui si è poi dimesso perchè sottoposto a continue pressioni per rimuovere i controlli di sicurezza e etici (sic!) a fovore di una maggiore velocità ed efficienza del loro motore di IA
il problema non è solo rappresentato dagli errori, umani o artificiali che siano, è che ci sono degli interessi (io citavo il segretario alla difesa americano) che spingono nella direzione della deregulation ... e non so se vi ricordate nel 2008 cosa è successo nell'economia mondiale, quando gli americani hanno de-regolato il sistema bancario. Per chi non se lo ricordasse consiglio di leggere Too Big to Fail (da cui è stato tratto anche un eccezionale docu-film da HBO): è un libro che spiega bene la crisi dei subprime senza essere assolutamente noioso, anzi ... Leggendolo ci si rende conto di quanto siamo andati vicini al collasso del sistema economico occidentale e forse mondiale.
Last edited by Fukogama on Sun Feb 22, 2026 11:26 am, edited 1 time in total.
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
21PS scusate, ma anche per voi il sito è lentissimo? per modificare l'ultimo post ci ho messo quasi un minuto
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
22Fukogama wrote: PS scusate, ma anche per voi il sito è lentissimo? per modificare l'ultimo post ci ho messo quasi un minutolo fa anche a me da diversi giorni.
Un contributo sull'argomento.
Esistono molti mondi: reali, immaginari. Non importa la loro natura: da ognuno di essi si può apprendere qualcosa.
https://www.lestradedeimondi.com/
https://www.lestradedeimondi.com/
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
23@M.T.
forse la IA ci ha 'beccati' e sta facendo di tutto per non farci parlare dell'agomento!
grazie per il contributo, interessante e preoccupante ... io sono tra quelli che nutrono timore. Conosco l'intelligenza artificiale solo per ciò che riguarda il mio lavoro e le versioni commerciali, sebbene sorprendenti, non mi sembra che possano acnora competere con l'uomo, ma sulle versioni più sofisticate non ne so nulla se non quello che si legge sulla stampa e sui blog dedicati.
non so se il mio timore è fondato solo sull'ignoranza, ma non mi fido dell'uomo: abbiamo gia dimostrato di saper costruire armi terrificanti e di averle volute utilizzare ...
forse la IA ci ha 'beccati' e sta facendo di tutto per non farci parlare dell'agomento!
grazie per il contributo, interessante e preoccupante ... io sono tra quelli che nutrono timore. Conosco l'intelligenza artificiale solo per ciò che riguarda il mio lavoro e le versioni commerciali, sebbene sorprendenti, non mi sembra che possano acnora competere con l'uomo, ma sulle versioni più sofisticate non ne so nulla se non quello che si legge sulla stampa e sui blog dedicati.
non so se il mio timore è fondato solo sull'ignoranza, ma non mi fido dell'uomo: abbiamo gia dimostrato di saper costruire armi terrificanti e di averle volute utilizzare ...
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
24Purtroppo il sito è lentissimo da una settimana e più, ma non sappiamo come mai. 
Voglio pensare che ci siano anche aziende realmente etiche, ma è un dato di fatto che le più influenti abbiano una morale estremamente elastica, o di facciata.
Al riguardo, ho trovato particolarmente interessante questo articolo, di cui pubblico solo un piccolissimo estratto di sintesi:
"È l'Economia della Distrazione: mentre la classe media combatte una guerra immaginaria per difendere la razza, l'oligarchia acquisisce gli asset reali del pianeta, privatizza lo spazio e normalizza l'idea di un futuro techno-feudale dove le classi subalterne vivranno pagando per la fruizione di qualunque servizio di base, senza in realtà possedere nulla."
Fukogama wrote: già ... e non era uno sviluppatore qualunque, come credo sappia anche ElleryQ, ma un pezzo grosso di AnthropicSì, era riportato nell'estratto dell'articolo che avevo postato:
ElleryQ wrote: Sharma, che guidava il Safeguards Research Team di Anthropic dal 2023
ElleryQ wrote: ha lavorato su temi come la tendenza dei modelli linguistici ad assecondare l'utente, la prevenzione del bioterrorismo assistito dall'AI e la definizione di casi di sicurezza per sistemi avanzati
Fukogama wrote: è che ci sono degli interessi (io citavo il segretario alla difesa americano) che spingono nella direzione della deregulationCertamente ci sono degli interessi e vanno oltre quelli puramente economici. O meglio... alla fine si riduce tutto a quello, perché la finalità è "selezionare" una parte della popolazione più influenzabile, facendo leva sulla paura dell'altro, interessi e bisogni, per governarla arricchendosi ulteriormente. Non è un caso che multinazionali hi-tech e governi siano strettamente legati e che a capo ci siano individui che stanno cercando di influenzare le masse spingendole verso una deriva neo nazista. Molti social sono già gestiti da IA che influenzano i contenuti o li creano ad hoc e hanno grafiche e colori che comunicano subliminalmente.
Voglio pensare che ci siano anche aziende realmente etiche, ma è un dato di fatto che le più influenti abbiano una morale estremamente elastica, o di facciata.
Al riguardo, ho trovato particolarmente interessante questo articolo, di cui pubblico solo un piccolissimo estratto di sintesi:
"È l'Economia della Distrazione: mentre la classe media combatte una guerra immaginaria per difendere la razza, l'oligarchia acquisisce gli asset reali del pianeta, privatizza lo spazio e normalizza l'idea di un futuro techno-feudale dove le classi subalterne vivranno pagando per la fruizione di qualunque servizio di base, senza in realtà possedere nulla."
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
25@Fukogama Ho provato l'IA una volta per avere un giudizio su un mio testo: sono stato molto soddisfatto dell'esito. Poi ho fatto un'altra prova, mettendo un testo sgrammaticato, pieno di errori e senza senso: ho ottenuto lo stesso dei complimenti. Non ho più usato l'IA
Esistono molti mondi: reali, immaginari. Non importa la loro natura: da ognuno di essi si può apprendere qualcosa.
https://www.lestradedeimondi.com/
https://www.lestradedeimondi.com/