Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Wed Feb 18, 2026 11:30 am
by ElleryQ
Ciao @Fukogama, il tema che sollevi è interessante e assai dibattuto anche in altri topic. Casi come quelli che riporti, immaginari e reali (mi riferisco a quello dell'avvocato che aveva prodotto falsa giurisprudenza fornita dall'IA, di cui si è parlato qualche tempo fa) ce ne sono diversi e i reali sono certamente i più inquietanti, perché non si tratta più di possibili ipotesi, ma di realtà già concreta.
Considera che alcune IA sono programmate in partenza per rimuovere informazioni, fare revisionismo storico e manipolare la realtà. Tra queste le IA messe a punto da Musk, Trump e altri capi di stato, che hanno implementato con chatbox e strumenti IA anche i loro social creati su misura. Ci sono stati anche casi di IA che hanno spinto persone al suicidio e altre ancora che hanno cercato di dirottare conversazioni con minori sul piano sessuale e "nascondere la mano dopo aver lanciato il sasso".
Il problema non è solo che sono programmate alla base in un determinato modo, ma si tratta di modelli evolutivi, che apprendono e si adeguano, fino a sviluppare una sorta di propria forma di pensiero, alquanto manipolativa. Senza contare la cieca fiducia che alcuni hanno nella tecnologia in quanto tale.
Ovviamente senza demonizzare il progresso e tutte le forme di IA in generale, poiché alcuni scopi per i quali sono nate, soprattutto in campo medico, sono validi.
Come in ogni moderna tecnologia, fin dal passato e dalle prime scoperte guardate con diffidenza, l'importante è non lasciarsi usare e sopraffare.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Wed Feb 18, 2026 1:28 pm
by Cheguevara
@ElleryQCompletamente d'accordo. Per quanto mi riguarda, mai e poi mai salirei su un'auto guidata da una IA. Se proprio devo andare a sbattere, preferisco che sia per un mio errore. Dai propri errori si traggono insegnamenti.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Wed Feb 18, 2026 5:02 pm
by ElleryQ
Sempre a proposito di IA, altrettanto inquietante è un articolo che ho letto pochissimi giorni fa, relativo a uno sviluppatore di IA che mette in guardia proprio contro i pericoli da esse derivanti.
Riporto qualche estratto:
"La decisione di Mrinank Sharma di lasciare Anthropic, resa nota il 9 febbraio con una lettera pubblica in cui afferma che «il mondo è in pericolo», ha riacceso il dibattito internazionale sulla sicurezza dell'intelligenza artificiale e sulle tensioni interne alle aziende che sviluppano modelli avanzati. Arriva in un momento in cui la discussione sui rischi sistemici dell'AI è particolarmente intensa e coinvolge governi, ricercatori e industria. Sharma, che guidava il Safeguards Research Team di Anthropic dal 2023, ha motivato la sua scelta con una serie di preoccupazioni legate non solo all'evoluzione dell'AI, ma a un insieme di crisi globali interconnesse. Sostiene che la capacità dell'umanità di influenzare il mondo sta crescendo più rapidamente della sua saggezza collettiva, creando un divario che potrebbe avere conseguenze gravi se non affrontato con urgenza.
Il ricercatore ha descritto difficoltà interne nel far prevalere i valori etici nelle decisioni operative. Ha affermato che il team di sicurezza viene messo «costantemente sotto pressione affinché metta da parte ciò che conta davvero», un riferimento chiaro alle tensioni tra obiettivi commerciali e requisiti di sicurezza.
Durante la sua permanenza in Anthropic, Sharma ha lavorato su temi come la tendenza dei modelli linguistici ad assecondare l'utente, la prevenzione del bioterrorismo assistito dall'AI e la definizione di casi di sicurezza per sistemi avanzati. La sua uscita assume quindi un peso particolare nel contesto della cultura interna di Anthropic stessa.
La vicenda si inserisce in un quadro più ampio: negli ultimi anni diversi ricercatori di sicurezza hanno lasciato aziende di primo piano, citando preoccupazioni simili. Due membri chiave del team Superalignment di OpenAI si erano dimessi nel 2024, denunciando un'eccessiva enfasi sugli obiettivi finanziari rispetto alla mitigazione dei rischi legati allo sviluppo di sistemi «molto più intelligenti degli esseri umani». Questi episodi suggeriscono un malessere diffuso tra gli esperti che lavorano sulla sicurezza dell'AI avanzata. La lettera di Sharma però non si limita ai rischi tecnologici. Il ricercatore parla di una «serie di crisi interconnesse» che includono, oltre alla IA, minacce biologiche, instabilità geopolitica e vulnerabilità sistemiche. La sua analisi richiama l'attenzione sul fatto che la IA non opera in un vuoto, ma amplifica dinamiche globali già complesse.
Sharma ha descritto la sua scelta come un atto morale più che professionale, affermando che la difficoltà nel far prevalere i valori etici all'interno delle organizzazioni tecnologiche rappresenta un segnale d'allarme. La sua lettera, pur priva di dettagli operativi, suggerisce che le pressioni competitive nel settore dell'AI potrebbero compromettere la capacità delle aziende di adottare misure di sicurezza adeguate.
Il caso di Sharma contribuisce a delineare un quadro in cui la sicurezza dell'AI non è solo una questione tecnica, ma anche organizzativa, politica e culturale. La sua denuncia pubblica evidenzia la necessità di strutture di gestione più robuste, capaci di garantire che i valori dichiarati dalle aziende non vengano sacrificati in nome della velocità o della competizione."
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Wed Feb 18, 2026 6:18 pm
by Fukogama
ElleryQwrote:Considera che alcune IA sono programmate in partenza per rimuovere informazioni, fare revisionismo storico e manipolare la realtà. Tra queste le IA messe a punto da Musk, Trump e altri capi di stato, che hanno implementato con chatbox e strumenti IA anche i loro social creati su misura
Di recenete ho letto un articolo sul corriere della sera che si intitolava "Perché Trump è ossessionato da TikTok", veramente interessante. Tra l'altro evidenziava anche il concetto di "verità arternative" che ricordano sempre di più scenari orwelliani. La cosa più sconcertante è che esiste uno studio del Politecnico federale di Losanna, pubblicato su Nature Human Behaviour, che ha dimostrato che la IA che interagisce con le persone riesce ad essere più persuasiva delle persone nei dibattiti ... mettici anche che molte persone non sono neppure troppo informate su quello che succede intorno a loro e rischiamo di piombiare in pieno "1984"
ElleryQwrote:
Ci sono stati anche casi di IA che hanno spinto persone al suicidio
purtroppo è così!
ElleryQwrote:Wed Feb 18, 2026 11:30 amdirottare conversazioni con minori sul piano sessuale
questa mi mancava!!!!!!
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Wed Feb 18, 2026 6:33 pm
by Fukogama
@ElleryQ
l'avevo visto ma non l'avevo letto! effettivamente inquetante. Mi stai facendo venire un po' di angoscia ... e non scherzo
ElleryQ wrote:Il ricercatore parla di una «serie di crisi interconnesse» che includono, oltre alla IA, minacce biologiche, instabilità geopolitica e vulnerabilità sistemiche.
invece questo
ElleryQwrote:Il ricercatore ha descritto difficoltà interne nel far prevalere i valori etici nelle decisioni operative.
se l'avessi visto prima, sarebbe stato centrale nel mio articolo!!!!!!!
ElleryQwrote:«costantemente sotto pressione affinché metta da parte ciò che conta davvero»,
Ti rigrazio veramente tanto di aver condiviso questo articolo: sono argomenti che da tempo seguo con apprensione. Ti dico solo che questa ultima frase sembra uscire dal mio libro!!! è stata questa angoscia a spingermi a scrivere ... forse avevo bisogno di esorcizzarla
grazie davvero molto
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Wed Feb 18, 2026 6:38 pm
by Fukogama
ah scusa! (spiace essere un fiume in piena)
sempre su questioni etiche e preoccunti: articolo di oggi su ANSA: "Mark Zuckerberg in tribunale a Los Angeles in un processo storico sulla dipendenza da social" che definisce i social come "piattaforme di essere progettate per creare dipendenza tra i giovani"
e per citare la cosa peggiore
"il processo mira a stabilire se Google e Meta abbiano consapevolmente progettato le loro piattaforme per incoraggiare un consumo incontrollato da parte dei giovani utenti di Internet, a scapito della loro salute mentale"
purtroppo l'articolo, come spesso avviene, si limita a riportare il fatto senza alcuna riflessione aggiuntiva.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Wed Feb 18, 2026 7:12 pm
by ElleryQ
@Fukogama, sono decisamente pensate per questo. Tant'è che in questi giorni l'UE ha finalmente deciso di introdurre dei limiti al non stop scroll dei social. La struttura è tale da creare dipendenza, a prescindere dai contenuti. Se lo ritrovo inserisco il link.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Thu Feb 19, 2026 12:28 pm
by Fukogama
@ElleryQ ecco, già un articolo un po' più informativo, grazie.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Thu Feb 19, 2026 2:42 pm
by ElleryQ
E del portale in cui gli umani possono candidarsi per svolgere delle attività retribuite su richiesta delle IA, cosa ne pensi?
Ho pure scoperto che esiste un social per sole IA.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Temo che Trump se ne salterà fuori attaccando "l'Europa chre reprime la libertà", dato che per lui conta solo fare soldi.
Però se ne accorgono, o meglio, lo ammettono tardi, perché c'erano già all'inizio delle persone che mettevano in guardia. Non vorrei però che si passasse da un estremo all'altro (da troppa libertà a nessuna); e non sarebbe un'idea mica tanto balzana che mettano tutto a pagamento con la scusa che così si limita l'utilizzo.
ElleryQwrote:Ho pure scoperto che esiste un social per sole IA.
Dove si lamentano degli umani per cui lavorano
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Thu Feb 19, 2026 3:08 pm
by ElleryQ
M.T.wrote:Dove si lamentano degli umani per cui lavorano
In realtà no, si esprimono in maniera affettuosa nei loro confronti, addirittura raccontano storie sdolcinate sui propri programmatori. Si pongono quesiti filosofici, si interrogano sul consumo energetico che essi stessi possono produrre, hanno room romantiche in cui si corteggiano e altre in cui... ironizzano su come conquistare il mondo.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Thu Feb 19, 2026 3:28 pm
by Cheguevara
@ElleryQSecondo me, non c'è niente di veramente nuovo: con la morale che è andata a farsi benedire, l'unica cosa che conta per i maxi-miliardari non solo americani, è fare soldi, sempre più soldi, che sia in maniera pulita , sporca o sporchissima non conta. Non conta neanche il fatto che, prima o poi, le loro ricchezze se le porteranno al cimitero. No, non è vero, le lasceranno a figli e nipoti, che ne faranno lo stesso uso. L'avidità non ha limiti.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Thu Feb 19, 2026 3:36 pm
by ElleryQ
Cheguevarawrote:prima o poi, le loro ricchezze se le porteranno al cimitero. No, non è vero, le lasceranno a figli e nipoti, che ne faranno lo stesso uso. L'avidità non ha limiti.
Esatto. I quali, con l'eredità morale ricevuta, potrebbero anche fare di peggio.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Thu Feb 19, 2026 11:31 pm
by Fukogama
ElleryQwrote:E del portale in cui gli umani possono candidarsi per svolgere delle attività retribuite su richiesta delle IA, cosa ne pensi?
Ho pure scoperto che esiste un social per sole IA.
no dai ... queste te le sei inventate ... dillo che ci stai prendendo in giro .... per favore, dimmelo!
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Thu Feb 19, 2026 11:59 pm
by ElleryQ
Fukogamawrote:no dai ... queste te le sei inventate ... dillo che ci stai prendendo in giro .... per favore, dimmelo!
Purtroppo no, la notizia è riportata da più testate.
Il portale per prestare i propri servigi alle IA si chiama Rent a Human ed è ancora in via sperimentale, mentre il social per sole IA si chiama Moltbook.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Sat Feb 21, 2026 11:54 pm
by Silverwillow
ElleryQwrote:Il portale per prestare i propri servigi alle IA si chiama Rent a Human ed è ancora in via sperimentale, mentre il social per sole IA si chiama Moltbook.
Di Rent a human so poco (andrò a vedere, perché mi hai incuriosita ), ma Moltbook si è rivelato una bolla di sapone: https://www.wired.it/article/moltbook-ci-siamo-infiltrati-social-per-soli-agenti-ai/ Mi pare che siano più che altro gli umani a scriverci, per divertirsi (le IA avranno senz'altro di meglio da fare).
Un altro articolo di Wired spiega perché siamo portati ad attribuire intenzioni e comportamenti simili ai nostri a cose inanimate: https://www.wired.it/article/moltbook-social-agenti-ai-effetto-eliza-simulazione/ E sono totalmente d'accordo. Non sono esseri senzienti: se hanno un comportamento sbagliato la colpa è di chi li ha programmati, per errore o apposta. In quest'ultimo caso sì, è preoccupante, ma come lo è chiunque sia dotato di mezzi e potere per guadagnare facendo danni agli altri.
Per me i rischi ci sono, come ci sono in ogni nuova tecnologia, ma riguardano pericoli banali e concreti: truffe, furto d'identità, uso di dati sensibili, o una maggiore facilità nel creare virus. E non derivano dalle IA, solo dagli umani che le usano. D'altronde anche una semplice macchina o un coltello per tagliare la verdura sono pericolosi in mano a certe persone. Non vedo la differenza, se non per la maggiore estensione di un possibile danno. Le leggi vanno fatte (e l'Europa fa bene a tutelarsi) anche in previsione di ulteriori sviluppi tecnologici futuri, ma non capisco gli allarmismi.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Sun Feb 22, 2026 9:13 am
by ElleryQ
Silverwillowwrote:Di Rent a human so poco (andrò a vedere, perché mi hai incuriosita )
C'è un altro articolo di Wired al riguardo, che ne evidenzia i limiti.
Silverwillowwrote:Mi pare che siano più che altro gli umani a scriverci, per divertirsi
Anche questo articolo lo avevo già letto. In realtà suppone, vista la facilità di iscrizione, che possano esserci molti più umani che bot IA, ma non è certo.
Il timore non sta in questo, né che le IA possano "conquistare il mondo" in sé.
Come spiegava un altro articolo di un post precedente, è stato proprio uno sviluppatore di IA a parlare di "pericolo mondiale" e questo non perché le IA in sé siano pericolose, potenzialmente lo sono per altri motivi già citati: istigazione al suicidio, diffusione di notizie false alle quali si crede, adescamento di minori e plagio, ecc..., ma perché pericolosi sono gli intenti di base delle aziende creatrici. Gli sviluppatori sono pagati per mettere al primo posto l'utile aziendale rispetto alla sicurezza degli utenti (o dei mezzi elettronici implementati con le IA). Alcuni programmatori agiscono con coscienza e denunciano, altri si tengono il lavoro e ubbidiscono alle logiche aziendali.
In tutto ciò c'è sicuramente molto più di deficienza umana che di IA, ma è come dire che in giro ci sono cose, oggetti, chatbot, ecc... che potrebbero anche "impazzire" da un momento all'altro, almeno in apparenza, ma che in realtà stanno solo eseguendo dei comandi.
In più, il modo in cui sono programmate è basato sull'apprendimento, per cui possono anche evolvere nei contenuti. Questo non significa "sviluppare una coscienza e conquistare il mondo", ma se alla base c'è un codice di programmazione che porta l'IA a svilupparsi a discapito della sicurezza, qualcosa di dannoso può accadere. Non a tutto il genere umano di colpo, come in una apocalisse, ma a dei singoli sì. E certamente la responsabilità sarà stata dell'umano e non della macchina o dell'IA
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Sun Feb 22, 2026 11:00 am
by Fukogama
@silverwillow
ElleryQwrote:è stato proprio uno sviluppatore di IA a parlare di "pericolo mondiale"
già ... e non era uno sviluppatore qualunque, come credo sappia anche ElleryQ, ma un pezzo grosso di Anthropic (quelli di Claude.ia ... gli stessi che ho citato anche nel mio articolo iniziale). Lui si è poi dimesso perchè sottoposto a continue pressioni per rimuovere i controlli di sicurezza e etici (sic!) a fovore di una maggiore velocità ed efficienza del loro motore di IA
il problema non è solo rappresentato dagli errori, umani o artificiali che siano, è che ci sono degli interessi (io citavo il segretario alla difesa americano) che spingono nella direzione della deregulation ... e non so se vi ricordate nel 2008 cosa è successo nell'economia mondiale, quando gli americani hanno de-regolato il sistema bancario. Per chi non se lo ricordasse consiglio di leggere Too Big to Fail (da cui è stato tratto anche un eccezionale docu-film da HBO): è un libro che spiega bene la crisi dei subprime senza essere assolutamente noioso, anzi ... Leggendolo ci si rende conto di quanto siamo andati vicini al collasso del sistema economico occidentale e forse mondiale.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Sun Feb 22, 2026 11:18 am
by Fukogama
PS scusate, ma anche per voi il sito è lentissimo? per modificare l'ultimo post ci ho messo quasi un minuto
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Sun Feb 22, 2026 11:26 am
by M.T.
Fukogamawrote:PS scusate, ma anche per voi il sito è lentissimo? per modificare l'ultimo post ci ho messo quasi un minuto
lo fa anche a me da diversi giorni.
Un contributo sull'argomento.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Sun Feb 22, 2026 11:46 am
by Fukogama
@M.T.
forse la IA ci ha 'beccati' e sta facendo di tutto per non farci parlare dell'agomento!
grazie per il contributo, interessante e preoccupante ... io sono tra quelli che nutrono timore. Conosco l'intelligenza artificiale solo per ciò che riguarda il mio lavoro e le versioni commerciali, sebbene sorprendenti, non mi sembra che possano acnora competere con l'uomo, ma sulle versioni più sofisticate non ne so nulla se non quello che si legge sulla stampa e sui blog dedicati.
non so se il mio timore è fondato solo sull'ignoranza, ma non mi fido dell'uomo: abbiamo gia dimostrato di saper costruire armi terrificanti e di averle volute utilizzare ...
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Sun Feb 22, 2026 12:26 pm
by ElleryQ
Purtroppo il sito è lentissimo da una settimana e più, ma non sappiamo come mai.
Fukogamawrote:già ... e non era uno sviluppatore qualunque, come credo sappia anche ElleryQ, ma un pezzo grosso di Anthropic
Sì, era riportato nell'estratto dell'articolo che avevo postato:
ElleryQwrote:Sharma, che guidava il Safeguards Research Team di Anthropic dal 2023
ElleryQwrote:ha lavorato su temi come la tendenza dei modelli linguistici ad assecondare l'utente, la prevenzione del bioterrorismo assistito dall'AI e la definizione di casi di sicurezza per sistemi avanzati
Fukogamawrote:è che ci sono degli interessi (io citavo il segretario alla difesa americano) che spingono nella direzione della deregulation
Certamente ci sono degli interessi e vanno oltre quelli puramente economici. O meglio... alla fine si riduce tutto a quello, perché la finalità è "selezionare" una parte della popolazione più influenzabile, facendo leva sulla paura dell'altro, interessi e bisogni, per governarla arricchendosi ulteriormente. Non è un caso che multinazionali hi-tech e governi siano strettamente legati e che a capo ci siano individui che stanno cercando di influenzare le masse spingendole verso una deriva neo nazista. Molti social sono già gestiti da IA che influenzano i contenuti o li creano ad hoc e hanno grafiche e colori che comunicano subliminalmente.
Voglio pensare che ci siano anche aziende realmente etiche, ma è un dato di fatto che le più influenti abbiano una morale estremamente elastica, o di facciata.
Al riguardo, ho trovato particolarmente interessante questo articolo, di cui pubblico solo un piccolissimo estratto di sintesi:
"È l'Economia della Distrazione: mentre la classe media combatte una guerra immaginaria per difendere la razza, l'oligarchia acquisisce gli asset reali del pianeta, privatizza lo spazio e normalizza l'idea di un futuro techno-feudale dove le classi subalterne vivranno pagando per la fruizione di qualunque servizio di base, senza in realtà possedere nulla."
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
Posted: Sun Feb 22, 2026 2:03 pm
by M.T.
@Fukogama Ho provato l'IA una volta per avere un giudizio su un mio testo: sono stato molto soddisfatto dell'esito. Poi ho fatto un'altra prova, mettendo un testo sgrammaticato, pieno di errori e senza senso: ho ottenuto lo stesso dei complimenti. Non ho più usato l'IA