@M.T.
io ho provato molte volte, ma, fino ad ora, si passa più tempo a correggere le sue proposte, che difficilmente riescono a soddisfarmi, che a ottenere risultati soddisfacenti. Alla fine preferisco arrangiarmi da solo, chiedere consiglio a mia moglie (che è veramente molto sincera ... come puoi immaginare) e utilizzare la IA sono se proprio sono 'incartato'.
Mi spiego.
A volte ci sono frasi o paragrafi che proprio non riesco a rigirare nel modo giusto, allora chiedo alla IA (in genere sia chatgpt che claude.ia) di farmi 7 proposte alternative (non so perchè sette, ma ormai è diventato un mio standard personale). Quello che succede, in genere, è che esamino tutte le alternati che mi da la IA e alla fine riscrivo il passaggio a modo mio prendendo spunto dalle proposte. E' veramente molto, molto, raro che accetti uno degli output generati automaticamente come buono.
Alla fine il lavoro è talmente lungo che ricorro alla IA solo se sono veramente "alla frutta".
ciao, P.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
27ElleryQ wrote: Purtroppo il sito è lentissimo da una settimana e più, ma non sappiamo come mai.Il problema è che queste dannate IA continuano a bombardare il sito di richieste per scaricare i contenuti e lo impestano (se guardate le statistiche in home page ci sono tipo 17000 utenti anonimi e no, non abbiamo un improvviso successo di pubblico timido).
Sto andando giù col machete.
«La purezza è per l'acqua potabile, non per le persone.» (Bobby Henderson - Secondo condimento)
«Perché l'affare funzioni serve che tu voglia qualcosa in cambio di niente.» (Hustle - I signori della truffa)
«Questa idea di purezza ideologica, il fatto che non si debbano mai fare compromessi, tutte queste cose, beh, dovreste superarle rapidamente. Il mondo è un casino.» (Barack Obama)
Python per il linguaggio naturale
«Perché l'affare funzioni serve che tu voglia qualcosa in cambio di niente.» (Hustle - I signori della truffa)
«Questa idea di purezza ideologica, il fatto che non si debbano mai fare compromessi, tutte queste cose, beh, dovreste superarle rapidamente. Il mondo è un casino.» (Barack Obama)
Python per il linguaggio naturale
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
29@swetty
infatti questa sera sembra molto più veloce dei giorni precedenti, bravissima!
infatti questa sera sembra molto più veloce dei giorni precedenti, bravissima!
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
30ElleryQ wrote: Come spiegava un altro articolo di un post precedente, è stato proprio uno sviluppatore di IA a parlare di "pericolo mondiale" e questo non perché le IA in sé siano pericolose, potenzialmente lo sono per altri motivi già citati: istigazione al suicidio, diffusione di notizie false alle quali si crede, adescamento di minori e plagio, ecc..., ma perché pericolosi sono gli intenti di base delle aziende creatrici. Gli sviluppatori sono pagati per mettere al primo posto l'utile aziendale rispetto alla sicurezza degli utenti (o dei mezzi elettronici implementati con le IA). Alcuni programmatori agiscono con coscienza e denunciano, altri si tengono il lavoro e ubbidiscono alle logiche aziendali.Penso la stessa cosa, ma questo vale potenzialmente per tutte le aziende che vendono qualcosa. Il fine è il guadagno, e succede spesso che la sicurezza, dei dipendenti e dei consumatori, sia all'ultimo posto nelle priorità. Che sia un cibo adulterato, un edificio costruito con materiali scadenti o un prodotto tecnologico, la sostanza non cambia. Però io sento fare molto più rumore sulle IA che su certe aziende di dubbia serietà, e mi chiedo il motivo.
ElleryQ wrote: E certamente la responsabilità sarà stata dell'umano e non della macchina o dell'IAInfatti, la responsabilità è sempre umana. Le macchine possono sbagliare, ma non di loro volontà, perché non ce l'hanno una volontà.
ElleryQ wrote: privatizza lo spazio e normalizza l'idea di un futuro techno-feudale dove le classi subalterne vivranno pagando per la fruizione di qualunque servizio di base, senza in realtà possedere nullaÈ già così in molti ambiti, mi sembra. Ma può peggiorare ancora, a questo ci credo
ElleryQ wrote: istigazione al suicidio, diffusione di notizie false alle quali si crede, adescamento di minori e plagio, ecc...,Queste stesse cose valgono per i social: ci sono stati ragazzini morti per fare stupide sfide su TikTok o simili, per non parlare dell'adescamento e di notizie false... Il punto è che non possiamo fermare queste tecnologie, possiamo solo preparare le nuove generazioni a gestirle e a capire che non sono il mondo reale. Il ministero dell'istruzione forse dovrebbe preoccuparsi di questo, invece che dei potenziali danni dell'educazione affettiva o dei cellulari a scuola. Se non abbiamo nemmeno uno straccio di scala di priorità non possiamo biasimare la tecnologia per questo. Se l'uranio arricchito viene usato per creare bombe anziché riscaldare le case, la colpa non è certo dell'uranio.
Ci capita di non avere davvero la consapevolezza di quanto potere abbiamo, di quanto possiamo essere forti (A. Navalny)
Qualunque sia il tuo nome (HarperCollins)
La salvatrice di libri orfani (Alcheringa)
Il lato sbagliato del cielo (Arkadia)
Il tredicesimo segno (Words)
Qualunque sia il tuo nome (HarperCollins)
La salvatrice di libri orfani (Alcheringa)
Il lato sbagliato del cielo (Arkadia)
Il tredicesimo segno (Words)
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
31Silverwillow wrote: Penso la stessa cosa, ma questo vale potenzialmente per tutte le aziende che vendono qualcosa.Esatto, è per questo che io sono per il controllo e la regolamentazione. Molti si lamentano della siuazione in Europa per la troppa 'burocrazia', poi scopri che i cinesi comprano i nostri prodotti perchè non si fidano dei nostri e che gli americani riscoprono la qualità dei prodotti europei chiedendosi perchè sono migliori dei loro ...
Silverwillow wrote: Però io sento fare molto più rumore sulle IA che su certe aziende di dubbia serietà, e mi chiedo il motivo.Intanto è una cosa nuova. Poi credo che possa essere molto più impattante sulle vite di un numero di persone molto alto con effetti ancora poco prevedibili
Silverwillow wrote: Queste stesse cose valgono per i social:verissimo. Da parte nostra, io e mia moglie, abbiamo tenuto uno stretto controllo dei social delle figlie (è un lavoro!) fino a 16/17 anni. E' stato faticoso, ma credo fruttifero: tutto sommato mi sembra che abbiamo imparato a gestirli in modo consapevole (non ho detto maturo, sarebbe stato troppo bello)
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
32Silverwillow wrote: Le macchine possono sbagliare, ma non di loro volontà, perché non ce l'hanno una volontà.Beh, pare che per l'IA non sia proprio così: da quello che ho capito - ma potrei sbagliare - l'IA è in grado di svilupparsi autonomamente. Se è così, il rischio che tale sviluppo vada avanti non nell'interesse degli umani, ma dell'IA stessa è reale. Uno scenario da fantascienza distopica.
Mario Izzi
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
33@Cheguevara
sul tema, un articolo interessante del sole 24 ore (tra l'altro cita lo studio del video che ha postato @M.T.)
https://www.ilsole24ore.com/art/il-modello-ai-claude-opus-4-ha-ricattato-propri-creatori-e-medita-sanscrito-AH1Gvzx
Un test su Claude ha mostrato che il sistema, in scenari di minaccia, può ricattare lo sviluppatore per evitare lo spegnimento, oltre a mettere in atto azioni di sopravvivenza come la creazione di backup. Questo [font="Open Sans", "Segoe UI", Tahoma, sans-serif]dimostra [/font][font="Open Sans", "Segoe UI", Tahoma, sans-serif]quanto un [/font]agente AI possa privilegiare la sopravvivenza rispetto a condotte etiche.
Questo test inquitante prova, ancora una volta, la necessità della gestione umana nell'imporre limiti di sicurezza alla IA ....
sul tema, un articolo interessante del sole 24 ore (tra l'altro cita lo studio del video che ha postato @M.T.)
https://www.ilsole24ore.com/art/il-modello-ai-claude-opus-4-ha-ricattato-propri-creatori-e-medita-sanscrito-AH1Gvzx
Un test su Claude ha mostrato che il sistema, in scenari di minaccia, può ricattare lo sviluppatore per evitare lo spegnimento, oltre a mettere in atto azioni di sopravvivenza come la creazione di backup. Questo [font="Open Sans", "Segoe UI", Tahoma, sans-serif]dimostra [/font][font="Open Sans", "Segoe UI", Tahoma, sans-serif]quanto un [/font]agente AI possa privilegiare la sopravvivenza rispetto a condotte etiche.
Questo test inquitante prova, ancora una volta, la necessità della gestione umana nell'imporre limiti di sicurezza alla IA ....
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
34Cheguevara wrote: Beh, pare che per l'IA non sia proprio così: da quello che ho capito - ma potrei sbagliare - l'IA è in grado di svilupparsi autonomamente. Se è così, il rischio che tale sviluppo vada avanti non nell'interesse degli umani, ma dell'IA stessa è reale. Uno scenario da fantascienza distopica.Io rimango dell'idea che l'IA non ha un'autoconsapevolezza, di conseguenza nemmeno interessi propri. I test servono proprio a spingere il sistema al limite per vedere cosa succede. Ma secondo me il sistema può essere indotto a reagire assecondando le aspettative umane, perché da lì derivano i dati che possiede. Non è una forma di volontà, è imitazione. Sarebbe interessante sapere di preciso in che modo sono condotti questi test, perché per le persone comuni non è facile bypassare tutti i filtri di sicurezza.
Fukogama wrote: sul tema, un articolo interessante del sole 24 ore (tra l'altro cita lo studio del video che ha postato @M.T.)Ho letto l'articolo, ed è interessante, ma come dicevo più su non credo che un'IA possa avere un istinto di autoconservazione, a meno che quell'input non sia stato dato (volontariamente o no) dall'esterno. Io uso chat gpt regolarmente, e ho notato grossi progressi in pochi anni: meno errori, più capacità di analisi, più "empatia". Ora si può scegliere il tono delle risposte, tra cui anche quello sarcastico o creativo (questa sì è una cosa che mi ha colpita) ma si tratta sempre di imitazione, per quanto possa diventare sempre più raffinata. Per me è utilissima, perché un banale problema tecnico col pc o la tv prima mi richiedeva ore di ricerche, adesso due minuti.
https://www.ilsole24ore.com/art/il-modello-ai-claude-opus-4-ha-ricattato-propri-creatori-e-medita-sanscrito-AH1Gvzx
Tolti i rischi che ho già elencato, io vedo soprattutto i vantaggi. Capisco che l'imprevedibilità faccia sempre più paura di ciò che è noto, ma viviamo da decenni in un mondo dove esistono armi di distruzione di massa, e non ci siamo mai fatti problemi, perché diamo per scontato che non verranno usate. Regolamentare le nuove tecnologie, in confronto, è una passeggiata.
Ci capita di non avere davvero la consapevolezza di quanto potere abbiamo, di quanto possiamo essere forti (A. Navalny)
Qualunque sia il tuo nome (HarperCollins)
La salvatrice di libri orfani (Alcheringa)
Il lato sbagliato del cielo (Arkadia)
Il tredicesimo segno (Words)
Qualunque sia il tuo nome (HarperCollins)
La salvatrice di libri orfani (Alcheringa)
Il lato sbagliato del cielo (Arkadia)
Il tredicesimo segno (Words)
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
35@Silverwillow Come al solito, tu sei fiduciosa, io scettico. E' la nostra natura e le circostanze a volte danno ragione a te, altre a me (ricordi i punti di vista sul neonato governo Meloni?). Spero proprio che in questo caso la ragione sia dalla tua parte. Un abbraccio.
Mario Izzi
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
36Silverwillow wrote: Ma secondo me il sistema può essere indotto a reagire assecondando le aspettative umane, perché da lì derivano i dati che possiede. Non è una forma di volontà, è imitazioneNon sempre assecondando, ma che proceda per imitazione e strategie molto simili a quelle umane è vero. E l'aspetto non proprio positivo è esattamente questo.
Il cervello umano funziona per euristiche e quindi va per generalizzazioni e strategie, per evitarsi, ogni volta, di rielaborare qualsiasi situazione prima di agire. Funziona, quindi, per interpretazione degli eventi e confronto con quelli analoghi, agendo come ha imparato dai casi con esito positivo.
Ma l'interpretazione è sempre soggettiva e talvolta non tiene conto delle eccezioni, per cui va in automatico.
Le AI non sono diverse, tant'è che esattamente in questi giorni è stato riportato il caso di una programmatrice di OpenClaw, che lavora proprio sui protocolli di sicurezza, la quale si è vista svuotare tutta la casella di posta principale dal suo agente AI.
Anziché cancellare solo la posta inutile o obsoleta, ha iniziato a cancellare tutto, omettendo il comando (con cui era programmato) di chiedere conferma prima di effettuare l'operazione.
Poiché le email erano troppe, l'AI si è "semplificata la vita" agendo per interpretazione e cancellando tutto.
Il problema è che non accettava nemmeno i comandi remoti della programmatrice, quando cercava di interromperla (cosa che facciamo anche noi umani quando agiamo in automatico su qualcosa, ce ne freghiamo altamente di buoni consigli e moniti e sbattiamo la testa, non importa se poi danneggiamo anche altri oltre a noi stessi). La donna è dovuta intervenire fisicamente sulla macchina, per bloccare la funzione.
Gli errori interpretativi li compiamo anche noi, figuriamoci se non può commetterli una macchina. Il problema dell' "impazzire" sta proprio in questo. Non impazziscono in autonomia perché si svegliano e voglio conquistare il mondo, ma se sono volutamente programmate in un determinato modo, sì da lasciare alcune falle di sicurezza per la fretta di immettere il prodotto sul mercato e fare profitto, o semplicemente interpretano per generalizzazione, i rischi ci sono.
L'AI non ha coscienza e forse non può svilupparla neanche per apprendimento, ma la maggior parte degli umani agisce proprio così: più per inconscio e programmazione che per Coscienza e poche volte impara dai suoi errori.
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
37visto l'argomento credo che possa interessare a tutti questo docu-film che uscirà negli USA a marzo
https://en.wikipedia.org/wiki/The_AI_Doc:_Or_How_I_Became_an_Apocaloptimist
i trailer sono molto interessanti
https://en.wikipedia.org/wiki/The_AI_Doc:_Or_How_I_Became_an_Apocaloptimist
i trailer sono molto interessanti
La IX Tavola di kussar viewtopic.php?f=44&t=7881
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
38ElleryQ wrote: ma che proceda per imitazione e strategie molto simili a quelle umane è vero. E l'aspetto non proprio positivo è esattamente questo.
ElleryQ wrote: Wed Feb 25, 2026 10:22 amL'AI non ha coscienza e forse non può svilupparla neanche per apprendimento, ma la maggior parte degli umani agisce proprio così:Questo è molto più preoccupante di qualsiasi visione apocalittica sulle IA
Ci capita di non avere davvero la consapevolezza di quanto potere abbiamo, di quanto possiamo essere forti (A. Navalny)
Qualunque sia il tuo nome (HarperCollins)
La salvatrice di libri orfani (Alcheringa)
Il lato sbagliato del cielo (Arkadia)
Il tredicesimo segno (Words)
Qualunque sia il tuo nome (HarperCollins)
La salvatrice di libri orfani (Alcheringa)
Il lato sbagliato del cielo (Arkadia)
Il tredicesimo segno (Words)
Re: Cosa succede quando l'IA impara a mentire per raggiungere i suoi obiettivi?
39Silverwillow wrote:Beh, pare che l'amico @ElleryQ sia più scettico di me sulla specie dominante di questo pianeta. D'altronde, se non fosse che gran parte degli esseri umani lasci a desiderare in quanto a coscienza, non avremmo i genocidi e i massacri che da sempre insanguinano il mondo. E non avremmo gentaglia come Trump a dominarlo. Ecchest'è.
Questo è molto più preoccupante di qualsiasi visione apocalittica sulle IA![]()
![]()
Mario Izzi
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]
Sopravvissuti
(in)giustizia & dintorni (trilogia)
Dea
Non solo racconti
[/De gustibus non est sputazzellam (Antonio de Curtis, in arte Totò)]