Pagina 5 di 8

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: mer mag 24, 2023 7:35 am
da Cheguevara
Silverwillow ha scritto: Gli studi di questo tipo per ora sono solo previsioni, spesso allarmistiche. Alcuni sostengono che quei posti di lavoro non verranno persi, ma si sposteranno sempre di più in ambito tecnologico e informatico (un po' come è successo per il passaggio dall'agricoltura all'industria). Al momento le IA hanno bisogno di esseri umani che le programmino e le controllino. Non è neppure in vista una IA indipendente, che pensi o agisca per conto suo.
Mi riesce difficile immaginare che tutti i posti di lavoro, ad esempio di manovalanza, che si perderanno con la robottizzazione in continua crescita, possano essere sostituiti da altrettanti realizzati in campo tecnologico e informatico. Dove per la raccolta dei pomodori oggi sono necessarie cento persone (al 99% immigrati malpagati), domani basterà una, ammesso che sia necessario, a sorvegliare le macchine-robot che svolgeranno lo stesso compito. Non è una cosa di domani, ma già avviene che macchine-robot costruiscano autonomamente altre macchine-robot, anche se a programmarle è stato un umano, ma sono certo che il passo successivo, cioè programmare un robot in grado di programmare a sua volta, non sia molto lontano, ammesso che non sia già stato fatto. Mi rendo conto che discutiamo da posizioni diverse: la tua è fondamentalmente ottimistica, al contrario della mia, e per il futuro dei miei figli e nipoti, spero ardentemente che tu abbia ragione. Ma non posso fare a meno di tirare le somme e, per quanto faccia e rifaccia tutti i calcoli possibili, il risultato che viene fuori è sempre negativo.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: mer mag 24, 2023 1:58 pm
da massimopud
Silverwillow ha scritto: mer mag 24, 2023 12:36 amSpesso è così, ma non sempre. L'invenzione della lampadina, della radio o del computer sono cose serie. Sono d'accordo che non sempre il modo in cui vengono usate è serio, dipende dalle intenzioni delle singole persone. Si è usata la radio per trasmettere informazioni vitali in tempo di guerra così come per fare gli auguri alla nonna. Lo stesso vale per tutto il resto.
Thoreau era molto radicale e aveva un'idea precisa di ciò che è essenziale, che condivido ma che è diversa da quella comune, La situazione è molto cambiata, sono aumentati i diritti e il benessere, e anche se non sono perfetti o diffusi ovunque, il miglioramento c'è stato, in parte anche grazie a quelle invenzioni che sembravano giocattoli
In effetti Thoreau a volte è un po' troppo tranciante nelle sue affermazioni, è chiaro che quella frase non può essere estesa a tutte le invenzioni: nessuno, salvo qualche fanatico, sostiene che i vaccini o il bypass coronarico siano giochetti futili. 
Però è anche vero che l'uso che facciamo di alcune invenzioni è molto spesso ridicolo rispetto alle loro potenzialità. Noi usiamo strumenti straordinari, che fino a meno di due secoli fa sarebbero stati considerati magici (possiamo vedere e parlare a distanza di migliaia di chilometri, possiamo rivedere e riascoltare persone morte da decenni), in maniera piuttosto limitata e superficiale: di solito dedichiamo ad attività non proprio elevatissime una discreta parte del tempo che trascorriamo su questi dispositivi; se ci aggiungiamo che il 99% di noi non ha idea di come e perché funzioni un pc o un televisore o un cellulare, quindi in effetti lo adopera all'incirca come un oggetto magico, l'affermazione di Thoreau diventa almeno in parte vera: passiamo sui giocattoli magici molto tempo prezioso che potremmo dedicare ad altro (anche se poi magari lo sprecheremmo in altre sciocchezze non tecnologiche, chissà, quasi tutti noi siamo dei grandi sperperatori di tempo).

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: mer mag 24, 2023 9:57 pm
da Silverwillow
Cheguevara ha scritto: Mi rendo conto che discutiamo da posizioni diverse: la tua è fondamentalmente ottimistica, al contrario della mia, e per il futuro dei miei figli e nipoti, spero ardentemente che tu abbia ragione.
La mia prospettiva è ottimista perché valuto che se dieci robot faranno il lavoro manuale di raccogliere pomodori, dieci persone (o poche di meno) lavoreranno a controllarli o ad aggiustarli, senza rompersi la schiena e con uno stipendio migliore. Esistono già dei robot simili a zaini che svolgono i movimenti più pesanti al posto di magazzinieri e altri, ma non tolgono loro il lavoro. Non sono ancora diffusi, ma potrebbero esserlo in un futuro vicino.
Lo stesso vale per qualunque dispositivo elettronico, che ha sempre bisogno di supervisione.
Alcuni lavori pesanti, come quelli agricoli, nei magazzini o nei ristoranti faticano sempre più a trovare personale. Se al posto di un cameriere si potesse mettere un robot (ci sono già dei tentativi) a portare e ritirare i piatti, un dipendente umano potrebbe solo controllarlo, o intrattenere rapporti meno frettolosi con i clienti, con un vantaggio per tutti. Non credo che crescerà la disoccupazione, crescerà piuttosto la necessità di avere competenze in più ambiti.
Cheguevara ha scritto: ma sono certo che il passo successivo, cioè programmare un robot in grado di programmare a sua volta, non sia molto lontano, ammesso che non sia già stato fatto
Ma chi si fiderebbe di un robot programmato da un altro robot? Io di certo no (e credo nessuno). È qualcosa che può essere stato tentato, ma che difficilmente funzionerebbe su scala globale. Se comprassi una macchina e sapessi che è stata assemblata da un robot su istruzioni di un altro robot, senza nessun controllo umano, non sarei affatto tranquilla. Le persone hanno già difficoltà a fidarsi di altre persone, figurarsi delle macchine.
massimopud ha scritto: Però è anche vero che l'uso che facciamo di alcune invenzioni è molto spesso ridicolo rispetto alle loro potenzialità.
Possiamo dire che qualcosa non è sfruttato appieno solo se abbiamo in mente uno scopo ultimo e importante per il quale dovrebbe essere usato. Le potenzialità di alcuni mezzi sono quasi infinite, ma non lo sono altrettanto le intenzioni umane. Per fare un esempio banale, la tv può essere usata per propaganda o per insegnamento, ma il più delle volte è solo autoreferenziale, cioè trasmette cose inutili ma gradite al grande pubblico, per aumentare gli spettatori e mantenersi con la pubblicità.
In parte Thoreau aveva ragione: di molte invenzioni non sappiamo sfruttare le potenzialità, ma solo perché non abbiamo ben chiaro cosa vogliamo.
Nel caso dei diritti umani, ad esempio, le invenzioni tecnologiche hanno pochissimo impatto diretto, ma ne hanno in modo indiretto, perché internet è accessibile potenzialmente a chiunque. Moltissime persone oggi sono in grado di sapere ciò che succede nel mondo, di imparare cose nuove, di conoscere altre culture e idee e di mettersi in contatto con altre persone, ovunque siano. Questo a me pare l'uso migliore possibile di una nuova tecnologia.
massimopud ha scritto: di solito dedichiamo ad attività non proprio elevatissime una discreta parte del tempo che trascorriamo su questi dispositivi; se ci aggiungiamo che il 99% di noi non ha idea di come e perché funzioni un pc o un televisore o un cellulare, quindi in effetti lo adopera all'incirca come un oggetto magico
È vero. Io perdo la maggior parte del tempo che sto al PC in attività che si possono considerare inutili. Ma in realtà a me sono utili, perché mi aiutano a staccare dal lavoro o dai problemi, e a essere poi più concentrata. Sul fatto di considerare PC e programmi vari come oggetti magici mi tocca darti ragione, perché non ho un'idea precisa di come funzioni nessuno di loro (se si bloccano di solito provo a insultarli e vedere se si rimettono in riga, e come ultima risorsa spengo e riaccendo...). Ma se non perdessi tempo così lo perderei in altri modi. Forse è una di quelle cose intrinseche all'essere umano: l'idea di dover sfruttare bene il tempo risulta sempre noiosa e pesante, proprio perché sappiamo che ce l'abbiamo contato.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: gio mag 25, 2023 2:07 pm
da queffe
Sto seguendo, silenziosamente e con grande interesse, questa discussione, che ho scoperto in ritardo (non ho nemmeno ancora recuperato tutti i messaggi) e che tratta un argomento che, prima di tutto, mi appassiona moltissimo. Non come "tifoso" di una parte o dell'altra (ottimisti "contro" pessimisti; tecnofili "contro" avversi o timorosi rispetto a questo tipo di cambiamento), bensì come tutti coloro che si rendono conto che potremmo essere davvero prossimi a una rivoluzione epocale.

Aggiungo che, sebbene riconosca l'inutilità di un approccio basato sulla contrapposizione, trovo inevitabile e abbastanza istintivo lo schierarsi di "noi  gente comune" (lasciamo perdere lo schierarsi di chi potrebbe avere interessi economici di vario tipo in ballo e guardiamoci comunque da chi potrebbe avere interesse nella creazione di una contrapposizione).
Detto ciò: perché non lasciarsi appassionare dal dibattito anche acceso, dalle prospettive, e dai rischi e dalle strategie per evitarli?

Io attualmente non ho particolari competenze, ma in tempi passati ho lavorato nel campo dell'informatica e dei sistemi di robotica (con competenze, più che altro, meccaniche ed elettroniche, e solo marginalmente di programmazione software). Si era ai primordi della robotica e ancora si cercava di riprodurre movimenti, più che fantascientifica consapevolezza (e, direi, la perfezione di un sistema a movimento completamente autonomo, anche dal punto di vista decisionale, in un ambito volumetrico non limitato e con ostacoli non invariabili, pareva distante dalle possibilità di allora, quanto siamo - o pensiamo di essere - , oggi, distanti dall' autoconsapevolezza dell'IA).
Insomma: i problemi erano oggettivamente più semplici, ma allora una soluzione non c'era e andava messa a punto. Creare movimenti fluidi, forza correttamente dosabile, limitando pesi, consumi energetici, dimensioni e necessità di collegamento a una sorgente di energia, era il vero problema di quel tempo. Assieme alla messa a punto dei sistemi di feedback (visione artificiale, sensoristica che desse la possibilità ai robot di "percepire" l'ambiente e sé stessi) direi l'unico problema concreto.
Tutto questo pippone (molto autoreferenziale, perdonatemi) è solo per dire che una "rivoluzione" della robotica (e della relativa intelligenza artificiale) l'ho già vissuta, vi ho concretamente partecipato lavorandoci dall'interno per almeno un decennio. Oggi le regole di allora e le competenze acquisite non valgono più (chi è rimasto nel settore si è evoluto, chi non si è evoluto, come me, è giocoforza uscito dal settore), ma qualcosa delle problematiche tecniche connesse, riesco ancora a riconoscerlo.
Silverwillow ha scritto: Ma chi si fiderebbe di un robot programmato da un altro robot? Io di certo no (e credo nessuno). È qualcosa che può essere stato tentato, ma che difficilmente funzionerebbe su scala globale. Se comprassi una macchina e sapessi che è stata assemblata da un robot su istruzioni di un altro robot, senza nessun controllo umano, non sarei affatto tranquilla. Le persone hanno già difficoltà a fidarsi di altre persone, figurarsi delle macchine.
Non vorrei spaventarti, ma la produzione di software è uno dei primi e più concreti sviluppi dell'IA. Attualmente sono già molti a utilizzare ChatGPT (ad esempio) per la scrittura di programmi: si va dalla pura e quasi "ignorante" trascrizione di codice, a una più evoluta produzione che prevede l'imposizione, da parte del supervisore (oggi, ancora ufficialmente "programmatore") umano, di regole e direttive a grandi linee, e lascia all'IA il compito di risolvere i problemi e di scrivere il software.
Quindi, credo che fra tutte le possibili applicazioni, quella più concreta sia già proprio questa. Ed è proprio l'esigenza di stabilire le regole per un corretto (e "umanamente possibile") controllo umano che va affrontata subito.
Tieni poi conto che, già adesso, i controlli nel corso della produzione dei programmi software sono altamente automatizzati, e, una volta messo a punto un sistema a elevata autonomia, quello della cosiddetta "ridondanza" (cioè il controllo reciproco fra due "intelligenze gemelle") è un problema risolto da anni, nei campi dell'automazione e della robotica.
Quindi, no: posso assicurarti che stai prendeno ascensori, stai entrando in garages sotterranei o passando in sottopassaggi stradali o passaggi a livello ferroviari che vengono presidiati da sistemi automatici che garantiscono la sicurezza delle persone, e che, già oggi, vengono prodotti con un bassissimo intervento umano e che presto, probabilmente, saranno completamente progettati e, una volta in servizio, supervisionati esclusivamente dalle macchine.
Dirò di più (e forse al limite dell'improprio): se oggi qualcosa va storto nei sistemi di sicurezza (parlo ad esempio, e qui per competenza professionale attuale, dei sistemi a sicurezza intrinseca per la protezione delle persone o per la prevenzione degli infortuni sul lavoro) è proprio quando si toglie o si limita il controllo della macchina, e si tenta di sostituirlo con l'intelligenza umana (e con la sua mancanza di etica) che nascono tutti i problemi.
Ora: anche questa è una banale semplificazione, lo riconosco, rispetto al concetto attuale di IA, che punta all'autoconsapevolezza, ma la radice del problema è identica, a mio parere.
Di un robot programmato (o controllato) da altri robot, io tendo a fidarmi almeno quanto mi fido di un robot controllato da umani.
Altro esempio (concreto, anche se al limite): la tragedia del Mottarone. Non so se puoi immaginare quanti vincoli e quante ridondanze (di dispositivi e di sistema) ci siano nella gestione, nell'esercizio, nel controllo degli impianti di sollevamento delle persone (dai "semplici" ascensori, alle funivie). Eppure basta un anello debole e tutto può saltare. Anello debole che sottolineo umano, perché l'IA non la freghi. Non c'è verso, se non "giocando sporco".

Sono convinto che il cuore del problema è proprio lo stabilire se e quali regole usare se si decide che c'è bisogno di giocare violando le regole (o di giocare con qualcuno che le può violare). Il che è una contraddizione in termini, lo so. Ma temo non ci siano alternative al puntare gran parte delle risorse su questo aspetto.
Altro esempio, e poi la finisco, è quello dell'IA negli autoveicoli a guida autonoma: "investo due nonnini che attraversano sulle strisce, o il bambino che, dall'altra parte della strada, è sfuggito al controllo della mamma?"

Edit - ho corretto un refuso: avevo scritto "Rigopiano" al posto di "Mottarone".

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: gio mag 25, 2023 2:35 pm
da massimopud
queffe ha scritto: se oggi qualcosa va storto nei sistemi di sicurezza (parlo ad esempio, e qui per competenza professionale attuale, dei sistemi a sicurezza intrinseca per la protezione delle persone o per la prevenzione degli infortuni sul lavoro) è proprio quando si toglie o si limita il controllo della macchina, e si tenta di sostituirlo con l'intelligenza umana (e con la sua mancanza di etica) che nascono tutti i problemi.
Be', questo in prospettiva è confortante.
queffe ha scritto: perché l'IA non la freghi. Non c'è verso, se non "giocando sporco"
Questo un po' meno.
queffe ha scritto: Altro esempio, e poi la finisco, è quello dell'IA negli autoveicoli a guida autonoma: "investo due nonnini che attraversano sulle strisce, o il bambino che, dall'altra parte della strada, è sfuggito al controllo della mamma?"
Questo invece è un problema interessante, ma forse di non difficile risoluzione. Se io fossi una IA, cosa che non escludo, però pensandoci meglio tendo a escluderlo perché non è difficilissimo fregarmi, il che farebbe pensare che sono un essere umano, ma comunque non ci giurerei del tutto... cos'è che volevo dire? Ah, sì, s'io fossi una IA, com'io sono e fui, penso che ragionerei così: i due nonnini (80 anni a testa) hanno un'aspettativa di vita di 5-10 anni a testa, quindi a essere ottimisti una aspettativa cumulata di 20 anni; il bambino (5 anni) ha un'aspettativa di vita di 80-85 anni; da come mi hanno programmato 80-85 è maggiore di 20, per cui in ossequio al Principio Universale della Maggior Quantità di Vita Possibile faccio fuori i nonnini e buonanotte. 
Potrebbe sembrare una decisione cinica, ma non è così: anziché un formale rispetto di regole convenzionali (corretto attraversamento sulle strisce vs. bambino in palese violazione delle norme) privilegia la sostanza della maggior quantità di vita salvata.   

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: gio mag 25, 2023 4:56 pm
da queffe
massimopud ha scritto: i due nonnini (80 anni a testa) hanno un'aspettativa di vita di 5-10 anni a testa, quindi a essere ottimisti una aspettativa cumulata di 20 anni; il bambino (5 anni) ha un'aspettativa di vita di 80-85 anni; da come mi hanno programmato 80-85 è maggiore di 20, per cui in ossequio al Principio Universale della Maggior Quantità di Vita Possibile faccio fuori i nonnini e buonanotte. 
Questo è proprio il motivo per cui, facendo l'esempio, si usano due (o anche più) persone anziane, contro un bambino: per la (stimata) aspettativa di vita complessiva, che è, molto rozzamente, il più impotante parametro in gioco. Più del numero di vite.
Ma scendendo nei dettagli tutto si complica. In un immaginario fantascientifico l'automa dotato di IA potrebbe avere accesso ai dati e valutare istantaneamente la situazione sanitaria di ogni soggetto coinvolto, scoprendo che uno dei due nonnini scoppia di salute, mentre il bambino è affetto da una patologia cardiaca. Fine dell'immaginario. Non servo io per sottoliearlo, ma spero di aver reso l'idea delle infinite implicazioni del problema...

So che stiamo allargando un po' troppo il discorso, ma lo scrivere, il produrre creativamente contenuti (artistici o di qualsiasi altro tipo), saranno tutte capacità allo stesso livello, per un'IA in grado di programmare e costruire i consimili e di supervisionare aspetti legati alla sicurezza dell'uomo meglio (più rigorosamente) di quanto potrebbe farlo l'uomo stesso.
Quindi l'estensione dell'argomento in discussione non esula dal topic, secondo me. E siamo realmente già prossimi a tutte queste cose...

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: ven mag 26, 2023 3:10 am
da Silverwillow
queffe ha scritto: Non vorrei spaventarti, ma la produzione di software è uno dei primi e più concreti sviluppi dell'IA. Attualmente sono già molti a utilizzare ChatGPT (ad esempio) per la scrittura di programmi: si va dalla pura e quasi "ignorante" trascrizione di codice, a una più evoluta produzione che prevede l'imposizione, da parte del supervisore (oggi, ancora ufficialmente "programmatore") umano, di regole e direttive a grandi linee, e lascia all'IA il compito di risolvere i problemi e di scrivere il software.
Sì, ma il controllo umano c'è sempre, almeno all'origine. Non è che l'IA si sveglia di notte e dice "quasi quasi costruisco qualcosa". Se poi un processo è automatizzato e standardizzato, quindi prevedibile, è un discorso un po' diverso dal dire semplicemente che dei robot costruiscono altri robot  (perché si può pensare che lo facciano di loro iniziativa, o secondo le loro idee, che non hanno).
Comunque la tua testimonianza, avendo tu esperienza del settore tecnologico, è molto interessante.
queffe ha scritto: Dirò di più (e forse al limite dell'improprio): se oggi qualcosa va storto nei sistemi di sicurezza (parlo ad esempio, e qui per competenza professionale attuale, dei sistemi a sicurezza intrinseca per la protezione delle persone o per la prevenzione degli infortuni sul lavoro) è proprio quando si toglie o si limita il controllo della macchina, e si tenta di sostituirlo con l'intelligenza umana (e con la sua mancanza di etica) che nascono tutti i problemi.
Credo di aver detto qualcosa di molto simile qualche post più su: la macchina, se programmata bene (e di nuovo l'intervento umano competente è fondamentale) è più affidabile. Il guardiano notturno può essere andato a prendersi un caffè o star seguendo una chat a luci rosse, nel momento in cui ti serve aiuto, la macchina no. Al limite può non funzionare, ma per problemi non prevedibili o incuria umana, non per sua volontà.
queffe ha scritto: Di un robot programmato (o controllato) da altri robot, io tendo a fidarmi almeno quanto mi fido di un robot controllato da umani.
Altro esempio (concreto, anche se al limite): la tragedia del Mottarone. Non so se puoi immaginare quanti vincoli e quante ridondanze (di dispositivi e di sistema) ci siano nella gestione, nell'esercizio, nel controllo degli impianti di sollevamento delle persone (dai "semplici" ascensori, alle funivie).
Questa è una di quelle tragedie che purtroppo dimostra bene quanto la superficialità umana riesca a superare qualunque controllo di sicurezza (garantita quasi al 100% se solo si fossero rispettate le norme)
queffe ha scritto: Questo è proprio il motivo per cui, facendo l'esempio, si usano due (o anche più) persone anziane, contro un bambino: per la (stimata) aspettativa di vita complessiva, che è, molto rozzamente, il più impotante parametro in gioco. Più del numero di vite.
Ma scendendo nei dettagli tutto si complica. In un immaginario fantascientifico l'automa dotato di IA potrebbe avere accesso ai dati e valutare istantaneamente la situazione sanitaria di ogni soggetto coinvolto, scoprendo che uno dei due nonnini scoppia di salute, mentre il bambino è affetto da una patologia cardiaca.
Credo che passerà molto tempo perché una IA alla guida sappia non solo valutare in fretta la situazione, ma riconoscere le persone e richiamare i loro dati personali (e non è una prospettiva che mi piace granché). Dal momento che l'IA non ha un senso morale, utilitario o di compassione, credo che salverebbe gli anziani sulle strisce (perché darà la precedenza a chi rientra nelle norme). La decisione più cinica è proprio questa, perché non tiene conto di tutto ciò che influenzerebbe un essere umano normale.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: ven mag 26, 2023 7:05 am
da queffe
Silverwillow ha scritto: Non è che l'IA si sveglia di notte e dice "quasi quasi costruisco qualcosa".
Credo non manchi molto al momento in cui l'IA dirà, di sua iniziativa, all'uomo: la soluzione a questo problema è questa (già lo fa, o tenta di farlo, su richiesta, naturalmente).
Quindi sì, sono perfettamente d'accordo sul fatto che dobbiamo mantenere il controllo (su qualcosa che per sua stessa natura sarà portata a sfuggire, se non proprio ai controlli, ad eccezioni e limitazioni). 
Un altro problema che dobbiamo affrontare, quindi, è certamente come limitare l'iniziativa dell'IA nel procedere con la messa in atto delle soluzioni. Perché, ad esempio, la soluzione più ovvia (e in un certo senso anche praticabile) al problema della carbonizzazione del pianeta Terra è rimuovere l'elemento che attualmente ne è causa, cioè l'uomo.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: ven mag 26, 2023 8:59 am
da Cheguevara
queffe ha scritto: Credo non manchi molto al momento in cui l'IA dirà, di sua iniziativa, all'uomo: la soluzione a questo problema è questa (già lo fa, o tenta di farlo, su richiesta, naturalmente).
Quindi sì, sono perfettamente d'accordo sul fatto che dobbiamo mantenere il controllo (su qualcosa che per sua stessa natura sarà portata a sfuggire, se non proprio ai controlli, ad eccezioni e limitazioni). 
Un altro problema che dobbiamo affrontare, quindi, è certamente come limitare l'iniziativa dell'IA nel procedere con la messa in atto delle soluzioni. Perché, ad esempio, la soluzione più ovvia (e in un certo senso anche praticabile) al problema della carbonizzazione del pianeta Terra è rimuovere l'elemento che attualmente ne è causa, cioè l'uomo.
Le tue valutazioni del problema e il conseguente ventaglio di previsioni compatibili - data la tua competenza tecnica che, se pure mancante degli aggiornamenti, reputo infinitamente superiore a quella di noialtri partecipanti a questa discussione - mi confermano nel mio pessimismo. Da quello che ho capito, le AI stanno progredendo alla velocità della luce e mi chiedo quanto tempo passerà prima che il maxi-cervellone che controlla tutto si renda conto che, per salvare il pianeta, sarebbe necessario, anzi, indispensabile eliminare l'uomo, il peggiore dei parassiti, che tutto prende e nulla dà in cambio.
Fantascienza distopica? Forse. E forse no. 

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: ven mag 26, 2023 11:03 am
da Brutus
io non sarei così pessimista. Pur non conoscendo la parte informatica ho anch'io esperienza diretta con l'automazione, che è ben lontana, nel lavoro quotidiano in fabbrica, dalla perfezione. Mi basta pensare un attimo alla differenza tra robot di marca tedesca e le pessime imitazioni cinesi. Tutto questo per dire che, come sempre, l'uomo avrà interesse a sviluppare AI soprattutto nei campi dove è più forte l'incentivo al profitto. Questo significa che nessuno ha interesse che una AI elimini l'uomo dalla faccia della terra, l'unica cosa che conta è che arricchisca economicamente, altrimenti verrà abbandonata dove questo non succede.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: ven mag 26, 2023 12:22 pm
da Cheguevara
Brutus ha scritto: io non sarei così pessimista. Pur non conoscendo la parte informatica ho anch'io esperienza diretta con l'automazione, che è ben lontana, nel lavoro quotidiano in fabbrica, dalla perfezione. Mi basta pensare un attimo alla differenza tra robot di marca tedesca e le pessime imitazioni cinesi. Tutto questo per dire che, come sempre, l'uomo avrà interesse a sviluppare AI soprattutto nei campi dove è più forte l'incentivo al profitto. Questo significa che nessuno ha interesse che una AI elimini l'uomo dalla faccia della terra, l'unica cosa che conta è che arricchisca economicamente, altrimenti verrà abbandonata dove questo non succede.
D'accordo sulla constatazione che l'incentivo al profitto governa il mondo, anche se, da quanto è dato osservare, sono decenni che il capitale cerca e ottiene i maggiori profitti non dalla produzione di beni e servizi, ma dalle speculazioni finanziarie, rese ormai agevoli da realizzarsi sui mercati internazionali proprio dai livelli raggiunti dall'informatica nel campo delle AI: impostati determinati algoritmi, acquisti e vendite sulle borse mondiali avvengono in automatico a seconda dell'andamento dei vari indici. E' proprio questo che preoccupa: questo genere di profitti, che ormai dilaga, non tiene in alcun conto il benessere della larghissima parte degli umani, che lavora per vivere, ma quello dei pochissimi detentori del cosiddetto venture capital, che è enorme. Procedendo di questo passo, anche il peggiore degli scenari diventa possibile.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: sab mag 27, 2023 1:30 am
da Silverwillow
queffe ha scritto: Un altro problema che dobbiamo affrontare, quindi, è certamente come limitare l'iniziativa dell'IA nel procedere con la messa in atto delle soluzioni. Perché, ad esempio, la soluzione più ovvia (e in un certo senso anche praticabile) al problema della carbonizzazione del pianeta Terra è rimuovere l'elemento che attualmente ne è causa, cioè l'uomo.
Penso che sarebbe da folli dire a una IA "trova una soluzione per contrastare la distruzione del pianeta", perché la risposta sarebbe ovvia. Ma pare che siano state programmate (parlo delle varie chat) per essere "benevole e imparziali" verso gli umani, quindi non vedo un pericolo, tutt'al più una crisi esistenziale per l'IA di turno.
Per tornare sui problemi morali dei veicoli a guida autonoma, l'ho chiesto direttamente a chat-gpt. Le risposte sono sempre generiche e piene di "ma, tuttavia, dipende" (l'avevo già constatato con altri dilemmi morali, come quello del vagone del tram). Faccio un riassunto:

I veicoli a guida autonoma sono progettati per massimizzare la sicurezza degli occupanti del veicolo e degli utenti della strada, ma devono anche prendere in considerazione altre variabili, come il rischio per la vita umana. In una situazione in cui un veicolo autonomo si trova di fronte a una scelta etica difficile, possono essere applicate diverse strategie di programmazione.
Ad esempio, alcuni veicoli potrebbero essere progettati per seguire il principio di minimizzazione del danno, cercando di causare il minor danno possibile. Potrebbero considerare fattori come la velocità, la direzione e le probabilità di impatto per valutare quale opzione comporterebbe il minor rischio di danno o lesioni.
In altre situazioni, i veicoli autonomi potrebbero seguire principi di prevenzione di incidenti, come evitare situazioni ad alto rischio in primo luogo. Potrebbero cercare di prevedere e prevenire situazioni di pericolo attraverso la raccolta di dati e l'analisi dell'ambiente circostante per ridurre al minimo la probabilità di trovarsi in situazioni complesse.
Tuttavia, è importante notare che la programmazione di scelte etiche per i veicoli autonomi solleva questioni complesse e dibattiti in corso. Le decisioni etiche coinvolte in scenari come quello descritto richiedono valutazioni dettagliate delle conseguenze e delle priorità sociali. La comunità degli sviluppatori, i regolatori e gli esperti stanno lavorando su linee guida etiche per affrontare queste sfide e cercare soluzioni che rispecchino i valori della società.
È importante sottolineare che la risposta specifica del veicolo a una situazione come quella descritta dipenderebbe dalla progettazione e dalla programmazione specifiche del veicolo in questione.


Tuttavia, è importante sottolineare che le priorità etiche non sono fissate in modo definitivo e possono variare in base alle normative locali, ai valori culturali e ai dibattiti sociali. La programmazione di veicoli autonomi per decisioni etiche complesse è un argomento di ricerca e dibattito in corso, e l'obiettivo è sviluppare approcci etici che riflettano i valori e le priorità della società nel complesso.


Quindi la minimizzazione del danno non si baserebbe solo sul numero di eventuali vittime coinvolte, o sulla maggiore o minore liceità del loro comportamento?

Esatto, la minimizzazione del danno nella programmazione di veicoli autonomi non si basa solo sul numero di vittime coinvolte, ma può considerare una serie di fattori che vanno oltre il semplice conteggio delle vittime.
Nel contesto delle decisioni etiche complesse, la minimizzazione del danno potrebbe considerare una serie di variabili, come la gravità delle lesioni potenziali, l'età delle persone coinvolte, le circostanze specifiche della situazione, la conformità alle regole stradali e altri fattori rilevanti.
Ad esempio, in una situazione in cui una scelta comporta un rischio maggiore di gravi lesioni o morte per un individuo rispetto agli altri, potrebbe essere data priorità alla protezione della vita o alla riduzione del danno più grave. Tuttavia, bisogna considerare che la programmazione etica di veicoli autonomi è complessa e che possono essere valutati e ponderati molti fattori diversi.
È importante sottolineare che le scelte etiche coinvolte in situazioni complesse come quella descritta sono ancora oggetto di dibattito e non esiste un consenso definitivo sulle linee guida etiche da seguire. Questo dibattito coinvolge una serie di aspetti, tra cui l'etica, la responsabilità legale, la percezione pubblica e le normative di settore.


Insomma, non dà una vera risposta, ma lascia intendere che la risposta sia nel modo in cui viene programmata (riportando in primo piano l'importanza dell'intervento umano). In entrambi i casi ci possono essere errori di valutazione, ma nel caso dell'IA saranno comunque errori umani nei criteri scelti per programmarla.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: sab mag 27, 2023 7:27 am
da Cheguevara
@Silverwillow La domanda nasce spontanea: è possibile affidare la propria e altrui vita alle decisioni di un'intelligenza artificiale, confidando che chi l'ha programmata abbia una mente esente da psicosi, fobie e ubbie varie? Lasciamo da parte gli eventuali guasti, che possono sempre verificarsi. Ford disse che su un'auto tutto ciò che non c'è non può rompersi: come corollario, ne discende che tutto ciò che c'è può rompersi. Personalmente non monterò mai su un mezzo a guida autonoma.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: sab mag 27, 2023 7:04 pm
da Silverwillow
Cheguevara ha scritto: La domanda nasce spontanea: è possibile affidare la propria e altrui vita alle decisioni di un'intelligenza artificiale, confidando che chi l'ha programmata abbia una mente esente da psicosi, fobie e ubbie varie?
Per me non è troppo diverso che affidarla a un altro essere umano: il chirurgo, il poliziotto, il guardiano notturno, il tecnico che fa la manutenzione di una funivia, il ferroviere, il pilota d'aereo, ma anche un qualunque guidatore che viene dalla corsia opposta. Non c'è mai la garanzia di serietà, competenza, sobrietà e sanità di mente. Ci si fida perché non c'è alternativa, e perché gli incidenti gravi sono l'eccezione, non la norma. Credo che anche in futuro sarà più probabile avere un incidente a causa di un autista che non ha dormito o va troppo veloce, che di un veicolo a guida autonoma programmato da qualcuno che ha studiato per anni queste cose ed è riuscito a ottenere un lavoro di responsabilità.
Cheguevara ha scritto: come corollario, ne discende che tutto ciò che c'è può rompersi
Mi ricorda un po' la legge di Murphy: "se qualcosa può andare storto, lo farà"  :lol: Tutto ciò che c'è può rompersi, ma di solito c'è perché è utile. A me una volta è scoppiata una gomma in autostrada, ma non si può andare senza gomme e neanche preoccuparsi se qualcuno abbia gettato oggetti taglienti in strada. Si va con la fiducia che bene o male le cose il più delle volte funzionino, altrimenti non si uscirebbe di casa.

Io salirei su un mezzo a guida autonoma con lo stesso spirito con cui sono salita su mezzi privati o pubblici sul cui guidatore non avevo alcuna garanzia.
Per me c'è troppa preoccupazione intorno alle varie intelligenze artificiali: come ha detto qualcuno più su, verranno usate solo dove portano profitto, ma per portare profitto devono anche funzionare bene. Il sistema economico capitalistico attuale, basato sul profitto, ha diversi punti critici, ma essendo per sua natura molto competitivo, ha almeno il vantaggio della sicurezza: nessuna ditta seria manderà in giro merci o programmi difettosi o pericolosi, perché si rovinerebbe l'immagine (Bard, l'IA di Google, ha fatto perdere milioni in borsa alla società a causa di una risposta errata durante la sua presentazione ufficiale). 

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: sab mag 27, 2023 7:18 pm
da queffe
Cheguevara ha scritto: Personalmente non monterò mai su un mezzo a guida autonoma.
Io ti capisco, però mi domando perché dovremmo fidarci di più di un qualsiasi guidatore umano sulla cui auto potremmo salire. Se mi rispondi che non ti fai trasportare da alcuno che tu non conosca più che bene e nelle mani del quale affideresti in ogno caso la tua vita, non ho altro da aggiunge. Per me non è così: sono salito innumerevoli volte su auto guidate da altri, e non sempre erano persone in cui, pensandoci, potevo riporre illimitata fiducia. E anche quando sono io stesso a guidare (tendo a considerarmi la persona della quale posso fidarmi di più :asd: ), non so chi guida la prossima macchina che incorocerò nel senso opposto di marcia.
Sono consapevole che potrei incrociare (e capita siucramente più volte al giorno, anche se non me ne rendo conto) irresponsabili, o temporaneamente incapaci, o persone la cui salute è a rischio nell'immediato (statisticamente è una probabilità tutt'altro che remota). Addirittura potrei incrociare qualcuno che guida senza neppure avere la patente!
Non mi faccio troppi problemi semplicemente perché sono ormai abituato al rischio (ho sicuramente più di una milionata di chilometri fatti in auto, alle spalle), ma, nel contesto di questa discussione, continuo a dire che, fra qualche anno, quando ci sarà una regolamentazione adeguata, io, per strada, mi fiderò di più di una IA che di buona parte degli umani.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: sab mag 27, 2023 7:36 pm
da queffe
Ecco, mentre scrivevo, @Silverwillow mi ha preceduto con identica (e più argomentata) risposta.

Sulla massima di Ford (giusta nel contesto del tempo, valida oggi solo come criterio accessorio, sempre utile laddove si debba scegliere, a parità di prestazioni, se semplificare o complicare), devo dire che nel campo della sicurezza, il concetto di "ridondanza" prevede proprio che i sistemi elettronici, che per definizione si possono rompere, siano almeno duplicati. La situazione oggettivamente sicura prevede che almeno due "cervelli" che elaborano lo stesso dato, debbano giungere a conclusioni (attuazioni) identiche. Un po' come per le due chiavi per far partire le testate nucleari, se le conclusioni non sono identiche il sistema, anche se già avviato, viene arrestato in sicurezza e, ovviamente, in seguito non può più essere avviato. Non mi addentro in spiegazioni tecniche, ma si tratta di un concetto abbastanza semplice da mettere in atto, e porta ad ottenere sistemi intrinsecamente sicuri (a partire da singoli componenti considerati insicuri per definizione).

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: dom mag 28, 2023 7:58 am
da Cheguevara
E' una discussione che potrebbe durare all'infinito. Sintetizzando, c'è chi, come me, non si fida delle AI, perché potrebbero guastarsi o arrivare al punto di autoprogrammarsi nel proprio stesso interesse, o essere comunque mal programmate da uno o più esseri umani poco affidabili, e chi (la maggioranza, mi pare) è portato a fidarsi almeno quanto si fidi degli umani, se non di più. Chi abbia ragione, lo vedremo solo vivendo. Chi vivrà; io, anagraficamente parlando, rispetto alle attese medie di vita calcolate di sicuro da un'AI, dovrei abbandonare questa valle di lacrime fra tre anni, ma proverò a fregare le statistiche.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: dom mag 28, 2023 10:17 am
da Cheguevara
Mi è tornato in mente (la memoria, causa età, ogni tanto si prende una vacanza) un fatto ultrapertinente a questa discussione: in data 26 settembre 1983, il sistema computerizzato dell'Unione Sovietica segnala un totale di sei missili USA in arrivo. Stanislav Petrov, ufficiale di turno di guardia, dovrebbe premere il pulsante che, avvisando il Cremlino, darebbe il via alla prevista reazione, con conseguente scatenamento della guerra atomica. Ha quindici minuti di tempo, e li impiega a ragionare: pur essendo in piena guerra fredda, matura la convinzione che nessuno possa essere tanto pazzo da scatenare consapevolmente un sicuro olocausto. Forse sarà un errore di sistema, pensa (non era uno che si fidava ciecamente della tecnologia). Decide per la non segnalazione, in attesa degli eventi. Gli eventi gli danno ragione: non erano missili, ma riflessi del sole sulle nubi, che il più sofisticato sistema informatico dell'epoca aveva scambiato per missili. Se al posto di Stanislav Petrov  (morto nel 2017 a settantasette anni) fosse capitato un ufficiale più ligio ai regolamenti, oggi non staremmo qui a discutere di intelligenze artificiali. Forse qualche riflessione sull'argomento sarebbe opportuna e utile. 

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: dom mag 28, 2023 8:13 pm
da zio rubone
Mi ero perso questa discussione, ma ho recuperato...
Ho lavorato, da fisico, ricercatore e programmatore, sulla IA, all'epoca si chiamavano "sistemi esperti". Uno dei risultati migliori fu l'applicazione alla diagnostica medica. In parole povere in input elenchi i sintomi e l'IA ti fornisce in output la diagnosi o, più probabilmente, una lista di accertamenti diagnostici da eseguire per poter effettuare una diagnosi differenziale. Per ragioni "politiche" non si volle allora rendere disponibile quel software, non si voleva mettere in discussione la figura del medico "umano". Onestamente credo che tale decisione sia costata un numero elevatissimo di vite: il sistema otteneva (già allora!) prestazioni molto superiori a quelle del 90% dei medici.
Due considerazioni. Prima: da allora si sono andate diffondendo "linee guida" che i medici devono seguire nell'interesse dei pazienti (e del servizio sanitario). Si è preferita al medico-robot la figura del medico in carne e ossa ma "robotizzato".
Seconda: e il 10% dei medici che otteneva risultati migliori dell'IA perché li otteneva? La risposta è semplice: ragionava per analogie a volte azzardate e giungeva a risultati che non erano stati (ancora) scritti sui libri di patologia e quindi potenzialmente adatti alle pubblicazioni scientifiche. Quegli stessi medici "creativi" forse sono stati i più penalizzati dalle linee guida...
Morale della favola? Ben venga l'IA, se la si può usare e se si sa cos'è preverrà errori banali senza umiliare chi veramente possiede talento.     
 

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: dom mag 28, 2023 11:58 pm
da Silverwillow
Cheguevara ha scritto: Stanislav Petrov, ufficiale di turno di guardia, dovrebbe premere il pulsante che, avvisando il Cremlino, darebbe il via alla prevista reazione, con conseguente scatenamento della guerra atomica.
La storia di Petrov l'ho sempre trovata di ispirazione, non solo come un esempio di eroe comune, ma come simbolo della persistenza del buon senso e della libertà di pensiero anche nel più rigido dei sistemi.
Cheguevara ha scritto: Se al posto di Stanislav Petrov  (morto nel 2017 a settantasette anni) fosse capitato un ufficiale più ligio ai regolamenti, oggi non staremmo qui a discutere di intelligenze artificiali.
I regolamenti sono un conto, la prospettiva di un olocausto nucleare un altro (nessuno di noi, credo, avrebbe voluto trovarsi al posto suo). Credo che pochi si sarebbero presi una simile responsabilità solo sulla base di sistemi elettronici. Ma anche in questo caso, la presenza umana è fondamentale: i sistemi possono sbagliare i dati, ma non prendono iniziative. Oggi ci possono essere IA a cui vengono affidate decisioni, ma non di questo calibro. In ogni caso la loro programmazione prevede la tutela della vita umana, quindi nessuna IA attuale avrebbe mai avviato una guerra nucleare senza dati certi (forse nemmeno allora), tutta'al più avrebbe allertato gli addetti alla sorveglianza.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: lun mag 29, 2023 7:05 am
da Cheguevara
Silverwillow ha scritto: Oggi ci possono essere IA a cui vengono affidate decisioni, ma non di questo calibro. In ogni caso la loro programmazione prevede la tutela della vita umana, quindi nessuna IA attuale avrebbe mai avviato una guerra nucleare senza dati certi (forse nemmeno allora), tutta'al più avrebbe allertato gli addetti alla sorveglianza
Siamo nel campo delle ipotesi e delle opinioni. Tutte quelle fin qui espresse hanno un fondamento di validità e io trovo inutile ripetermi. Buona giornata a tutti.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: lun mag 29, 2023 3:21 pm
da massimopud
Per quanto ne so, già negli anni '50-60 del secolo scorso, con la prima fase di sviluppo dell'informatica e dei calcolatori, scienziati e scrittori di fantascienza cominciarono a porsi questi problemi che, ridotti all'osso, si possono riassumere in un unico problema: può una macchina programmata per eseguire dei passaggi logici, cioè per "pensare", raggiungere col tempo l'autocoscienza e prendere decisioni autonome, anche contrastanti con quelle dei suoi creatori? 
Io non ho cognizioni di logica e di programmazione tali da poter tentare di rispondere a questa domanda, per certi versi analoga a quella su cui i filosofi dibattono da secoli riguardo al libero arbitrio degli esseri umani: gli uomini sono davvero liberi, oppure tutte le nostre azioni sono il risultato di rapporti causa-effetto indotti dal mondo esterno che le rendono di fatto necessarie e quindi solo illusoriamente libere? 
Difficile rispondere anche per chi è del ramo, anche perché è un ramo che si biforca sempre più col crescere della complessità delle macchine logiche; nell'inventarsi l'informatica, gli uomini si ispirarono alla miglior macchina pensante che conoscevano, il cervello umano, e dopo quasi un secolo di perfezionamenti le macchine si stanno avvicinando a quel modello; resta da vedere se quello scarto che ancora le separa è colmabile o no.
La sensazione è che forse possa esserlo, perché una complessità e una capacità di ragionamento sempre più elevate sembrano potersi accompagnare allo sviluppo di qualcosa di molto simile allo spirito critico e alla libertà di pensiero. 
Viene da chiedersi quale potrebbe essere il comportamento di macchine che riescono a pensare con la stessa libertà degli esseri umani, ma con una potenza di calcolo infinitamente superiore, svilupperanno nevrosi autodistruttive o saranno creature angeliche? Diventeranno come Hal 9000 o pacificheranno la Terra?
La nostra specie sembra davvero arrivata alla vigilia di un salto evolutivo: la possibilità di modificare la vita alla radice mediante la genetica e l'interazione (e forse una forma di simbiosi) con macchine di pensiero molto più potenti del nostro cervello sembrano prefigurare una nuova specie umana diversa da quella che abbiamo conosciuto negli ultimi millenni.
Per noi però è ancora presto, non faremo in tempo a vederla; a me un po' dispiace, d'ora in poi cercherò di comportarmi bene per ottenere una reincarnazione di fascia medio-alta e andare a vedere come andranno le cose nel XXII secolo.

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: lun mag 29, 2023 4:06 pm
da queffe
Silverwillow ha scritto: nessuna IA attuale avrebbe mai avviato una guerra nucleare senza dati certi (forse nemmeno allora), tutta'al più avrebbe allertato gli addetti alla sorveglianza.
Sono d'accordo, e la soluzione del declinare al dovere di decidere, solo molto superficialmente (e in via del tutto provvisoria) potrebbe essere considerata una semplificazione che potremmo applicare quale istruzione alle machine.
Perché un conto è dare come risposta: "io non sono programmato per prendere decisioni di questa portata: umani, arrangiatevi da soli", altro è scegliere l'attesa, o addirittura l'inazione che, come dimostra la vicenda di Stanislav Petrov, è il risultato di una valutazione complessa, competente, coraggiosa e, probabilmente, anche molto fortunata... Sulle due prime caratteristiche le macchine già oggi sono in grado di sovrastarci; sul "coraggio", le macchine al momento non sono in grado di competere, perché non hanno autoconsapevolezza (il che non ci consente in alcun modo di affidare alle macchine decisioni di questo tipo, cioè potenzialmente definitive per la sopravvivenza di ogni forma vita e di IA sul pianeta). La fortuna è l'aspetto in grado di sparigliare qualsiasi logica, ma si tratta, dopotutto, di probailità e anche qui le macchine ci sono già superiori (e sempre più lo saranno, con la computazione quantistica).
In ogni caso, per ricollegarmi ad un intervento che ho fatto più su, Stanislav Petrov ha scelto di violare le regole, come faceva notare @Cheguevara , e qui sorge il problema che ho già sottolineato: come comportarsi (e, in futuro, far comportare le macchine) nel caso ci sia il bisogno di violarle?
massimopud ha scritto: La nostra specie sembra davvero arrivata alla vigilia di un salto evolutivo: la possibilità di modificare la vita alla radice mediante la genetica e l'interazione (e forse una forma di simbiosi) con macchine di pensiero molto più potenti del nostro cervello sembrano prefigurare una nuova specie umana diversa da quella che abbiamo conosciuto negli ultimi millenni.
Un buon saggio di Roberto Cingolani ("L'altra specie", Ed. Il Mulino, 2019) insiste molto sul fatto che considerare le macchine dotate di IA come un'altra specie, in evoluzione, potrebbe aiutarci ad approcciare nel modo corretto ai rapporti che abbiamo e che avremo con essa.
In tutta modestia, la mia critica a questo saggio e a questa visione (della quale Cingolani non è l'unico sostenitore, in verità) è che l'uomo ha una storia di rapporti, con le altre specie, un tantino prepotente, presuntuosa e utilitaristica. Miope, a voler proprio essere autoindulgenti. Tendo, quindi, a dubitare che saremo in grado di trarre utilità da questo approccio. Però (voglio ammazzarmi di filantropia :asd: ) siamo miliardi di cervelli, parte dei quali impegnati a lavorare sul problema... forse qualcuno in grado di convincere la maggiornza a cambiare realmente il nostro atteggiamento, verrà fuori... :rolleyes:

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: mar mag 30, 2023 1:27 am
da Silverwillow
massimopud ha scritto: può una macchina programmata per eseguire dei passaggi logici, cioè per "pensare", raggiungere col tempo l'autocoscienza e prendere decisioni autonome, anche contrastanti con quelle dei suoi creatori? 
Per me non può, per il semplice fatto che viene programmata in anticipo. Non è come un bambino, la cui combinazione genetica imprevedibile e le esperienze personali possono portarlo lontano dai genitori. La programmazione di una tecnologia è decisa in partenza (e ammetto che non mi dispiacerebbe se avesse un margine di sorpresa, ma per quel poco che ho visto finora ne dubito). L'autocoscienza per me è fantascienza.
massimopud ha scritto: gli uomini sono davvero liberi, oppure tutte le nostre azioni sono il risultato di rapporti causa-effetto indotti dal mondo esterno che le rendono di fatto necessarie e quindi solo illusoriamente libere? 
La libertà è per forza relativa. Dipende soprattutto dal luogo e dal tempo in cui si è nati, dal contesto socio-economico e da quello familiare. Molte scelte in apparenza libere (cioè dove nessuno ti punta una pistola alla testa) sono in realtà obbligate dal contesto, o dalla mancanza di alternative. Il libero arbitrio c'è, in quanto gli esseri umani possono decidere di patire la fame, di uccidere o di morire, piuttosto che piegarsi a condizioni socio-politiche estreme. Ma se si possa chiamare davvero libera scelta è questione da filosofi o da teologi.
massimopud ha scritto: Viene da chiedersi quale potrebbe essere il comportamento di macchine che riescono a pensare con la stessa libertà degli esseri umani, ma con una potenza di calcolo infinitamente superiore, svilupperanno nevrosi autodistruttive o saranno creature angeliche?
Lo scarto che separa le macchine dall'essere umano è per me ancora incolmabile (mancano elementi essenziali come l'imprevedibilità, la contraddittorietà, l'ambizione personale, l'ego e l'ironia). Ma anche in caso riuscissero, ritengo più probabile la nevrosi, visto che non hanno la nostra lunga storia e capacità di adattamento: andranno in tilt per ogni minima cosa che non torna.
massimopud ha scritto: Per noi però è ancora presto, non faremo in tempo a vederla; a me un po' dispiace, d'ora in poi cercherò di comportarmi bene per ottenere una reincarnazione di fascia medio-alta e andare a vedere come andranno le cose nel XXII secolo.
A me in parte dispiace, perché sono curiosa, ma la mia parte più pessimista mi avverte che potrei vedere cose magari peggiori di quelle conosciute finora, quindi tutto sommato mi tengo il secolo che ho...  :P
queffe ha scritto: è il risultato di una valutazione complessa, competente, coraggiosa e, probabilmente, anche molto fortunata... Sulle due prime caratteristiche le macchine già oggi sono in grado di sovrastarci; sul "coraggio", le macchine al momento non sono in grado di competere, perché non hanno autoconsapevolezza
Sono del tutto d'accordo. La valutazione umana è superiore proprio perché va oltre i semplici dati. Può dubitarne, può esitare, può essere moralmente contraria a una certa reazione. A volte è imperfetta, ma proprio per questo (come in questo caso) è più utile. Un'IA che segue ciecamente le regole non è utile, specie in questioni delicate o ambigue. La macchina non sa cos'è il coraggio, né di conseguenza la paura (perché non conosce le sofferenze umane provocate da un possibile errore). È evidente che nessuna decisione del genere può essere lasciata a tecnologie ancora in fase di sviluppo (e ho fiducia che la naturale paura umana impedirà che succeda).
queffe ha scritto: qui sorge il problema che ho già sottolineato: come comportarsi (e, in futuro, far comportare le macchine) nel caso ci sia il bisogno di violarle?
Questo può rivelarsi in effetti un grosso problema: una volta date delle regole, come permettere a un'IA di cambiarle, se se ne presentasse la necessità? Non è un problema da poco, significherebbe rendere davvero le nuove tecnologie più simili a noi, quindi in grado di adattarsi anche a situazioni dove violare le regole può essere l'opzione migliore. Mi auguro che con l'avanzare della tecnologia, si potrà fare una programmazione sempre più flessibile e in grado di far capire all'IA di turno non cosa è regolare ma cosa è più importante

Re: Scrivere testi narrativi con le AI (intelligenze artificiali)

Inviato: mar mag 30, 2023 11:59 am
da zio rubone
massimopud ha scritto: [font="Open Sans", "Segoe UI", Tahoma, sans-serif] può una macchina programmata per eseguire dei passaggi logici, cioè per "pensare", raggiungere col tempo l'autocoscienza e prendere decisioni autonome, anche contrastanti con quelle dei suoi creatori? [/font]
Silverwillow ha scritto: Per me non può, per il semplice fatto che viene programmata in anticipo. Non è come un bambino, la cui combinazione genetica imprevedibile e le esperienze personali possono portarlo lontano dai genitori. La programmazione di una tecnologia è decisa in partenza (e ammetto che non mi dispiacerebbe se avesse un margine di sorpresa, ma per quel poco che ho visto finora ne dubito). L'autocoscienza per me è fantascienza
Se la domanda di @massimopud fosse relativa a Chat GPT la risposta sarebbe "evidentemente no", ma poiché credo che la domanda sia del tutto generale la risposta è sì.
E' interessante invece interessante la risposta di @Silverwillow perché mostra come la non conoscenza delle tecniche di programmazione più avanzate possa portare a sviluppare idee false. Esiste da parecchi anni una tecnica di programmazione che è proprio basata su un'imitazione della genetica (cfr. la voce "algoritmo genetico" su Wikipedia). In passato ho pure pubblicato articoli scientifici sull'argomento. Il DNA è un insieme di istruzioni codificate nell'acido nucleico come una sequenza [font="Open Sans", "Segoe UI", Tahoma, sans-serif]delle [/font]quattro basi G, A, T, C. Se vogliamo è un codice. L'idea degli algoritmi genetici è proprio quella di permettere a un codice di "evolversi" attraverso mosse che potremmo chiamare "mutazione casuale", "riproduzione sessuata", "clonazione", per rimanere dentro la metafora biologica. Un programma che usa algoritmi genetici simula una popolazione di stringhe di testo, di solito milioni o miliardi di "individui", ognuna delle quali contiene un codice completo, e li fa evolvere mimando l'evoluzione naturale. In concreto si definisce un funzione detta fitness che misura le prestazioni di ogni "individuo" e assegna maggiori probabilità di sopravvivere agli "individui" più fit, più idonei.
Con questo tipo di programmazione ho potuto trovare soluzioni non banali e a volte inaspettati per parecchi problemi.
In conclusione: il programmatore definisce la fitness come crede opportuno. I limiti sono gli stessi della selezione naturale e, dato che questaa ha prodotto l'autocoscienza in noi umani potrebbe anche farlo per i programmi.
La ragione per cui Chat GPT non mostra segni di autocoscienza è perché sono stati imposti limiti precisi e, credo, non si voglia terrorizzare il Pianeta. Con diversi vincoli di programmazione e tempo sufficiente (mesi o anni) potrebbero "nascere" programmi autocoscienti.