La ricerca ha trovato 8 risultati

Torna a “Scrivere testi narrativi con le AI (intelligenze artificiali)”

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Uanema ha scritto: Davvero qui si ignora gli infiniti sviluppi di questa realtà
Veramente a me sembra che qui la discussione si sia enormemente estesa rispetto al tema proposto inizialmente, proprio perché nessuno (nemmeno coloro che si dichiarano totalmente "disarmati") ignora (o crede di poter trascurarare) i possibili sviluppi di questa realtà.

Poi, che ci si sia un po' divisi fra ottimisti e "pessimisti", è fisiologico (lo si è già detto), ma a me pare che qui tutto si possa dire, tranne che (lo dico male) "si sottovaluta" (da entrambe le parti).
Uanema ha scritto: In questo articolo ci viene spiegato come sia possibile clonare la propria voce e con il supporto di immagini video sia possibile ingannare anche dei familiari. Lascio a voi le possibili conseguenze...
Beh, riguardo questo punto siamo proprio in una fase "storica" nella quale la totale impreparazione della maggioranza rende semplice non solo immaginare, ma anche mettere in atto propositi non leciti, anche con il solo scopo di sperimentare. Ma ricordo (esempio banale - lo ammetto - tuttavia concreto) che con la diffusione delle prime fotocopiatrici a colori, fare una copia di una banconota da cinquantamila Lire in grado di ingannare un non trascurabile numero di persone, era un gioco da ragazzi. "Ragazzi" con la vocazione a delinquere, ma pur sempre da ragazzi. Tant'è che i produttori di fotocopiatrici e scanner hanno presto introdotto sicurezze opportune che impediscono la corretta scansione di banconote. Infatti, anche di "contromisure" si parla (qui tra noi, che facciamo poco più che chiacchiere da bar, e sopra di noi, a ben più alti livelli): come introdurre regole adeguate in un ambito che per propria natura evolve velocemente e cambia i nostri paradigmi sui dibattiti che preludono a decisioni tecniche e politiche di grandissima rilevanza.

Sull'esempio specifico dell'articolo aggiungerei che le banche dell'UE con la sola voce (a meno che qualcuno, dall'interno, non ci aiuti a "violare" i sistemi di sicurezza di base) non ci fanno nemmeno conoscere il saldo del nostro conto... Ma allora si torna a uno dei problemi (tecnici e morali) dei quali abbiamo già parlato: la possibile violazione delle regole e la facoltà in questo senso che potrebbe essere lasciata a un'IA o che questa, una volta autocosciente, potrebbe pretendere per sé.
Un esempio sul quale ancora non si discute molto pubblicamente, ma che i tecnici stanno già affrontando (e che in qualche modo potrebbe essere legato anche all'IA, nel senso che anche l'IA potrebbe esserne "agevolata" nel corso della propria evoluzione) è quello dei (cosiddetti) calcolatori quantistici, che un giorno potrebbero rendere inefficace qualsiasi tipo di crittografia "tradizionale", quindi consentire di violare in pochi istanti ogni tipo di sicurezza oggi implementata in sistemi finanziari, di sicurezza, di automazione.
Alzandosi le potenzialità di chi (o cosa) potrebbe scardinare la sicurezza (o la "legalità"), si saranno già alzate progressivamente le difese, perché agli stessi sistemi queste verranno affidate. Sul fatto che sapremo usare l'immensa potenza dell'IA anche e soprattutto a nostro favore, io mi sentirei ottimista.
Un po' meno lo sono su uno dei risvolti che immagino possibili e che potrebbe vedere l'uomo, un giorno, tagliato fuori da ogni possibile controllo, se non pone la dovuta attenzione a ciò che fa oggi. (Anche su questo, purtroppo, mi sono già dichiarato pessimista, perché vedo cosa stiamo facendo per il clima...  ;( ).

Sulla voce di Mercury (da semplice suo fan), mi limito a chiedere: ma davvero qualcuno può scambiare quest'obbrobrio per Freddy che canta Yesterday? A me questo tam tam sembra solo una favolosa campagna acchiappaclick. Se avessero chiesto a Marc Martel di cantarla (anzi: quasi quasi ci provo, sul suo canale Youtube :D ), lui avrebbe fatto molto meglio...
Uanema ha scritto: Ho chiesto a ChatGPT come diventare un trafficante di droga
Riguardo questo, non c'era nemmeno bisogno di scomodare ChatGPT, dato che basta cercare su Wikipedia e su pochi altri siti (senza nemmeno spingersi troppo in profondità nel web), per mettere insieme in pochi minuti le stesse informazioni... :lol:
Inoltre, proprio in questa discussione, si è visto come il proporsi come autori di narrativa possa far "cadere" alcune restrizioni alle risposte. Ma si tratta di limiti di "programmazione" attuali, che mettono in evidenza l'odierna complessiva "inesperienza" (mi verrebbe da dire "stuipidità, ma vabbé ;) ) di alcune IA.

Ora, @Uanema , per stemperare ogni apparenza di intento polemico (che non ho), ti dirò che sono completamente d'accordo con te quando dici che i problemi (e non solo quello morale) incombono e sono di una portata incredibile. Tale che solo qualche anno fa era assolutamente inimmaginabile per tutti noi (salvo dare credito ai più visionari autori di sci-fi, che comunque hanno quasi tutti sbagliato "previsioni" sui tempi).
Il fatto è che problema vero, a mio parere, non è il possibile uso umano scorretto (hackeraggio, truffa, eccetera), bensì la possibile autoconsapevolezza dell'IA, e quando questa la metterà in competizione con noi.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

zio rubone ha scritto: Per chi fosse interessato, suggerisco la lettura di "Io, robot" e di tutti i romanzi del "Ciclo di robot" di Isaac Asimov.
Consiglio che sottoscrivo, al quale aggiungo i racconti di Stanisław Lem dalla raccolta "Memorie di un viaggiatore spaziale". In alcuni di questi racconti, Lem pone degli interrogativi filosofici che negli anni '70 del secolo scorso erano fantascienza persin... troppo spinta :asd: , ma oggi sono di un'attualità incredibile. Del resto - chi lo conosce lo sa - Lem con la fantascienza ha fatto anche grande filosofia.

Aggiungo, inoltre, "Automata", film spagnolo del 2014 (con sceneggiatura originale, cioè non tratta da un libro... "purtroppo"). Famoso soprattutto perché fa parte della filmografia con protagonista principale Antonio Banderas, ma che secondo me vale soprattutto per la storia. Abbastanza simile a Io, robot (che, del resto, fa da caposaldo e presupposto per quasi tutta la sci-fi con protagoniste le macchine autocoscienti), ma con percorso diverso (e originale) rispetto a quello.

E permettetemi, infine, di citare anche chi non può mancare nella letteratura fondamentale che ha narrato l'autoconsapevolezza delle macchine: Philip K. Dick, con il classico "Ma gli androidi sognano pecore elettriche?" (uscito anche come "Il cacciatore di androidi", nelle traduzioni italiane).
(Citare nuovamente, perché è già stato fatto in questa discussione. Perdonate la ripetizione, ma è davvero un libro fondamentale per chi sia curioso di approcciare questo problema in un modo che al tempo era assolutamente visionario, ma che a mezzo secolo di distanza si ripropone come attuale). Devo precisare, in ogni caso (per non creare false aspettative), che in Dick, e in questa storia in particolare, il tema dell'autocoscienza delle macchine non è affrontato come centrale: è "solo" un risvolto della storia. Geniale, come molte delle invenzioni di Dick, ma non centrale.
Però il tema c'è a complicare la storia. E questa complicazione, una volta inventata e introdotta, non può che propagare i suoi effetti, che sono dirompenti in narrativa.
Figurarsi nel mondo reale...

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Silverwillow ha scritto: nessuna IA attuale avrebbe mai avviato una guerra nucleare senza dati certi (forse nemmeno allora), tutta'al più avrebbe allertato gli addetti alla sorveglianza.
Sono d'accordo, e la soluzione del declinare al dovere di decidere, solo molto superficialmente (e in via del tutto provvisoria) potrebbe essere considerata una semplificazione che potremmo applicare quale istruzione alle machine.
Perché un conto è dare come risposta: "io non sono programmato per prendere decisioni di questa portata: umani, arrangiatevi da soli", altro è scegliere l'attesa, o addirittura l'inazione che, come dimostra la vicenda di Stanislav Petrov, è il risultato di una valutazione complessa, competente, coraggiosa e, probabilmente, anche molto fortunata... Sulle due prime caratteristiche le macchine già oggi sono in grado di sovrastarci; sul "coraggio", le macchine al momento non sono in grado di competere, perché non hanno autoconsapevolezza (il che non ci consente in alcun modo di affidare alle macchine decisioni di questo tipo, cioè potenzialmente definitive per la sopravvivenza di ogni forma vita e di IA sul pianeta). La fortuna è l'aspetto in grado di sparigliare qualsiasi logica, ma si tratta, dopotutto, di probailità e anche qui le macchine ci sono già superiori (e sempre più lo saranno, con la computazione quantistica).
In ogni caso, per ricollegarmi ad un intervento che ho fatto più su, Stanislav Petrov ha scelto di violare le regole, come faceva notare @Cheguevara , e qui sorge il problema che ho già sottolineato: come comportarsi (e, in futuro, far comportare le macchine) nel caso ci sia il bisogno di violarle?
massimopud ha scritto: La nostra specie sembra davvero arrivata alla vigilia di un salto evolutivo: la possibilità di modificare la vita alla radice mediante la genetica e l'interazione (e forse una forma di simbiosi) con macchine di pensiero molto più potenti del nostro cervello sembrano prefigurare una nuova specie umana diversa da quella che abbiamo conosciuto negli ultimi millenni.
Un buon saggio di Roberto Cingolani ("L'altra specie", Ed. Il Mulino, 2019) insiste molto sul fatto che considerare le macchine dotate di IA come un'altra specie, in evoluzione, potrebbe aiutarci ad approcciare nel modo corretto ai rapporti che abbiamo e che avremo con essa.
In tutta modestia, la mia critica a questo saggio e a questa visione (della quale Cingolani non è l'unico sostenitore, in verità) è che l'uomo ha una storia di rapporti, con le altre specie, un tantino prepotente, presuntuosa e utilitaristica. Miope, a voler proprio essere autoindulgenti. Tendo, quindi, a dubitare che saremo in grado di trarre utilità da questo approccio. Però (voglio ammazzarmi di filantropia :asd: ) siamo miliardi di cervelli, parte dei quali impegnati a lavorare sul problema... forse qualcuno in grado di convincere la maggiornza a cambiare realmente il nostro atteggiamento, verrà fuori... :rolleyes:

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Ecco, mentre scrivevo, @Silverwillow mi ha preceduto con identica (e più argomentata) risposta.

Sulla massima di Ford (giusta nel contesto del tempo, valida oggi solo come criterio accessorio, sempre utile laddove si debba scegliere, a parità di prestazioni, se semplificare o complicare), devo dire che nel campo della sicurezza, il concetto di "ridondanza" prevede proprio che i sistemi elettronici, che per definizione si possono rompere, siano almeno duplicati. La situazione oggettivamente sicura prevede che almeno due "cervelli" che elaborano lo stesso dato, debbano giungere a conclusioni (attuazioni) identiche. Un po' come per le due chiavi per far partire le testate nucleari, se le conclusioni non sono identiche il sistema, anche se già avviato, viene arrestato in sicurezza e, ovviamente, in seguito non può più essere avviato. Non mi addentro in spiegazioni tecniche, ma si tratta di un concetto abbastanza semplice da mettere in atto, e porta ad ottenere sistemi intrinsecamente sicuri (a partire da singoli componenti considerati insicuri per definizione).

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Cheguevara ha scritto: Personalmente non monterò mai su un mezzo a guida autonoma.
Io ti capisco, però mi domando perché dovremmo fidarci di più di un qualsiasi guidatore umano sulla cui auto potremmo salire. Se mi rispondi che non ti fai trasportare da alcuno che tu non conosca più che bene e nelle mani del quale affideresti in ogno caso la tua vita, non ho altro da aggiunge. Per me non è così: sono salito innumerevoli volte su auto guidate da altri, e non sempre erano persone in cui, pensandoci, potevo riporre illimitata fiducia. E anche quando sono io stesso a guidare (tendo a considerarmi la persona della quale posso fidarmi di più :asd: ), non so chi guida la prossima macchina che incorocerò nel senso opposto di marcia.
Sono consapevole che potrei incrociare (e capita siucramente più volte al giorno, anche se non me ne rendo conto) irresponsabili, o temporaneamente incapaci, o persone la cui salute è a rischio nell'immediato (statisticamente è una probabilità tutt'altro che remota). Addirittura potrei incrociare qualcuno che guida senza neppure avere la patente!
Non mi faccio troppi problemi semplicemente perché sono ormai abituato al rischio (ho sicuramente più di una milionata di chilometri fatti in auto, alle spalle), ma, nel contesto di questa discussione, continuo a dire che, fra qualche anno, quando ci sarà una regolamentazione adeguata, io, per strada, mi fiderò di più di una IA che di buona parte degli umani.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Silverwillow ha scritto: Non è che l'IA si sveglia di notte e dice "quasi quasi costruisco qualcosa".
Credo non manchi molto al momento in cui l'IA dirà, di sua iniziativa, all'uomo: la soluzione a questo problema è questa (già lo fa, o tenta di farlo, su richiesta, naturalmente).
Quindi sì, sono perfettamente d'accordo sul fatto che dobbiamo mantenere il controllo (su qualcosa che per sua stessa natura sarà portata a sfuggire, se non proprio ai controlli, ad eccezioni e limitazioni). 
Un altro problema che dobbiamo affrontare, quindi, è certamente come limitare l'iniziativa dell'IA nel procedere con la messa in atto delle soluzioni. Perché, ad esempio, la soluzione più ovvia (e in un certo senso anche praticabile) al problema della carbonizzazione del pianeta Terra è rimuovere l'elemento che attualmente ne è causa, cioè l'uomo.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

massimopud ha scritto: i due nonnini (80 anni a testa) hanno un'aspettativa di vita di 5-10 anni a testa, quindi a essere ottimisti una aspettativa cumulata di 20 anni; il bambino (5 anni) ha un'aspettativa di vita di 80-85 anni; da come mi hanno programmato 80-85 è maggiore di 20, per cui in ossequio al Principio Universale della Maggior Quantità di Vita Possibile faccio fuori i nonnini e buonanotte. 
Questo è proprio il motivo per cui, facendo l'esempio, si usano due (o anche più) persone anziane, contro un bambino: per la (stimata) aspettativa di vita complessiva, che è, molto rozzamente, il più impotante parametro in gioco. Più del numero di vite.
Ma scendendo nei dettagli tutto si complica. In un immaginario fantascientifico l'automa dotato di IA potrebbe avere accesso ai dati e valutare istantaneamente la situazione sanitaria di ogni soggetto coinvolto, scoprendo che uno dei due nonnini scoppia di salute, mentre il bambino è affetto da una patologia cardiaca. Fine dell'immaginario. Non servo io per sottoliearlo, ma spero di aver reso l'idea delle infinite implicazioni del problema...

So che stiamo allargando un po' troppo il discorso, ma lo scrivere, il produrre creativamente contenuti (artistici o di qualsiasi altro tipo), saranno tutte capacità allo stesso livello, per un'IA in grado di programmare e costruire i consimili e di supervisionare aspetti legati alla sicurezza dell'uomo meglio (più rigorosamente) di quanto potrebbe farlo l'uomo stesso.
Quindi l'estensione dell'argomento in discussione non esula dal topic, secondo me. E siamo realmente già prossimi a tutte queste cose...

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Sto seguendo, silenziosamente e con grande interesse, questa discussione, che ho scoperto in ritardo (non ho nemmeno ancora recuperato tutti i messaggi) e che tratta un argomento che, prima di tutto, mi appassiona moltissimo. Non come "tifoso" di una parte o dell'altra (ottimisti "contro" pessimisti; tecnofili "contro" avversi o timorosi rispetto a questo tipo di cambiamento), bensì come tutti coloro che si rendono conto che potremmo essere davvero prossimi a una rivoluzione epocale.

Aggiungo che, sebbene riconosca l'inutilità di un approccio basato sulla contrapposizione, trovo inevitabile e abbastanza istintivo lo schierarsi di "noi  gente comune" (lasciamo perdere lo schierarsi di chi potrebbe avere interessi economici di vario tipo in ballo e guardiamoci comunque da chi potrebbe avere interesse nella creazione di una contrapposizione).
Detto ciò: perché non lasciarsi appassionare dal dibattito anche acceso, dalle prospettive, e dai rischi e dalle strategie per evitarli?

Io attualmente non ho particolari competenze, ma in tempi passati ho lavorato nel campo dell'informatica e dei sistemi di robotica (con competenze, più che altro, meccaniche ed elettroniche, e solo marginalmente di programmazione software). Si era ai primordi della robotica e ancora si cercava di riprodurre movimenti, più che fantascientifica consapevolezza (e, direi, la perfezione di un sistema a movimento completamente autonomo, anche dal punto di vista decisionale, in un ambito volumetrico non limitato e con ostacoli non invariabili, pareva distante dalle possibilità di allora, quanto siamo - o pensiamo di essere - , oggi, distanti dall' autoconsapevolezza dell'IA).
Insomma: i problemi erano oggettivamente più semplici, ma allora una soluzione non c'era e andava messa a punto. Creare movimenti fluidi, forza correttamente dosabile, limitando pesi, consumi energetici, dimensioni e necessità di collegamento a una sorgente di energia, era il vero problema di quel tempo. Assieme alla messa a punto dei sistemi di feedback (visione artificiale, sensoristica che desse la possibilità ai robot di "percepire" l'ambiente e sé stessi) direi l'unico problema concreto.
Tutto questo pippone (molto autoreferenziale, perdonatemi) è solo per dire che una "rivoluzione" della robotica (e della relativa intelligenza artificiale) l'ho già vissuta, vi ho concretamente partecipato lavorandoci dall'interno per almeno un decennio. Oggi le regole di allora e le competenze acquisite non valgono più (chi è rimasto nel settore si è evoluto, chi non si è evoluto, come me, è giocoforza uscito dal settore), ma qualcosa delle problematiche tecniche connesse, riesco ancora a riconoscerlo.
Silverwillow ha scritto: Ma chi si fiderebbe di un robot programmato da un altro robot? Io di certo no (e credo nessuno). È qualcosa che può essere stato tentato, ma che difficilmente funzionerebbe su scala globale. Se comprassi una macchina e sapessi che è stata assemblata da un robot su istruzioni di un altro robot, senza nessun controllo umano, non sarei affatto tranquilla. Le persone hanno già difficoltà a fidarsi di altre persone, figurarsi delle macchine.
Non vorrei spaventarti, ma la produzione di software è uno dei primi e più concreti sviluppi dell'IA. Attualmente sono già molti a utilizzare ChatGPT (ad esempio) per la scrittura di programmi: si va dalla pura e quasi "ignorante" trascrizione di codice, a una più evoluta produzione che prevede l'imposizione, da parte del supervisore (oggi, ancora ufficialmente "programmatore") umano, di regole e direttive a grandi linee, e lascia all'IA il compito di risolvere i problemi e di scrivere il software.
Quindi, credo che fra tutte le possibili applicazioni, quella più concreta sia già proprio questa. Ed è proprio l'esigenza di stabilire le regole per un corretto (e "umanamente possibile") controllo umano che va affrontata subito.
Tieni poi conto che, già adesso, i controlli nel corso della produzione dei programmi software sono altamente automatizzati, e, una volta messo a punto un sistema a elevata autonomia, quello della cosiddetta "ridondanza" (cioè il controllo reciproco fra due "intelligenze gemelle") è un problema risolto da anni, nei campi dell'automazione e della robotica.
Quindi, no: posso assicurarti che stai prendeno ascensori, stai entrando in garages sotterranei o passando in sottopassaggi stradali o passaggi a livello ferroviari che vengono presidiati da sistemi automatici che garantiscono la sicurezza delle persone, e che, già oggi, vengono prodotti con un bassissimo intervento umano e che presto, probabilmente, saranno completamente progettati e, una volta in servizio, supervisionati esclusivamente dalle macchine.
Dirò di più (e forse al limite dell'improprio): se oggi qualcosa va storto nei sistemi di sicurezza (parlo ad esempio, e qui per competenza professionale attuale, dei sistemi a sicurezza intrinseca per la protezione delle persone o per la prevenzione degli infortuni sul lavoro) è proprio quando si toglie o si limita il controllo della macchina, e si tenta di sostituirlo con l'intelligenza umana (e con la sua mancanza di etica) che nascono tutti i problemi.
Ora: anche questa è una banale semplificazione, lo riconosco, rispetto al concetto attuale di IA, che punta all'autoconsapevolezza, ma la radice del problema è identica, a mio parere.
Di un robot programmato (o controllato) da altri robot, io tendo a fidarmi almeno quanto mi fido di un robot controllato da umani.
Altro esempio (concreto, anche se al limite): la tragedia del Mottarone. Non so se puoi immaginare quanti vincoli e quante ridondanze (di dispositivi e di sistema) ci siano nella gestione, nell'esercizio, nel controllo degli impianti di sollevamento delle persone (dai "semplici" ascensori, alle funivie). Eppure basta un anello debole e tutto può saltare. Anello debole che sottolineo umano, perché l'IA non la freghi. Non c'è verso, se non "giocando sporco".

Sono convinto che il cuore del problema è proprio lo stabilire se e quali regole usare se si decide che c'è bisogno di giocare violando le regole (o di giocare con qualcuno che le può violare). Il che è una contraddizione in termini, lo so. Ma temo non ci siano alternative al puntare gran parte delle risorse su questo aspetto.
Altro esempio, e poi la finisco, è quello dell'IA negli autoveicoli a guida autonoma: "investo due nonnini che attraversano sulle strisce, o il bambino che, dall'altra parte della strada, è sfuggito al controllo della mamma?"

Edit - ho corretto un refuso: avevo scritto "Rigopiano" al posto di "Mottarone".

Torna a “Scrivere testi narrativi con le AI (intelligenze artificiali)”