Sto seguendo, silenziosamente e con grande interesse, questa discussione, che ho scoperto in ritardo (non ho nemmeno ancora recuperato tutti i messaggi) e che tratta un argomento che, prima di tutto, mi appassiona moltissimo. Non come "tifoso" di una parte o dell'altra (ottimisti "contro" pessimisti; tecnofili "contro" avversi o timorosi rispetto a questo tipo di cambiamento), bensì come tutti coloro che si rendono conto che potremmo essere davvero prossimi a una rivoluzione epocale.
Aggiungo che, sebbene riconosca l'inutilità di un approccio basato sulla contrapposizione, trovo inevitabile e abbastanza istintivo lo schierarsi di "noi gente comune" (lasciamo perdere lo schierarsi di chi potrebbe avere interessi economici di vario tipo in ballo e guardiamoci comunque da chi potrebbe avere interesse nella creazione di una contrapposizione).
Detto ciò: perché non lasciarsi appassionare dal dibattito anche acceso, dalle prospettive, e dai rischi e dalle strategie per evitarli?
Io attualmente non ho particolari competenze, ma in tempi passati ho lavorato nel campo dell'informatica e dei sistemi di robotica (con competenze, più che altro, meccaniche ed elettroniche, e solo marginalmente di programmazione software). Si era ai primordi della robotica e ancora si cercava di riprodurre movimenti, più che fantascientifica consapevolezza (e, direi, la perfezione di un sistema a movimento completamente autonomo, anche dal punto di vista decisionale, in un ambito volumetrico non limitato e con ostacoli non invariabili, pareva distante dalle possibilità di allora, quanto siamo - o pensiamo di essere - , oggi, distanti dall' autoconsapevolezza dell'IA).
Insomma: i problemi erano oggettivamente più semplici, ma allora una soluzione non c'era e andava messa a punto. Creare movimenti fluidi, forza correttamente dosabile, limitando pesi, consumi energetici, dimensioni e necessità di collegamento a una sorgente di energia, era il vero problema di quel tempo. Assieme alla messa a punto dei sistemi di feedback (visione artificiale, sensoristica che desse la possibilità ai robot di "percepire" l'ambiente e sé stessi) direi l'unico problema concreto.
Tutto questo pippone (molto autoreferenziale, perdonatemi) è solo per dire che una "rivoluzione" della robotica (e della relativa intelligenza artificiale) l'ho già vissuta, vi ho concretamente partecipato lavorandoci dall'interno per almeno un decennio. Oggi le regole di allora e le competenze acquisite non valgono più (chi è rimasto nel settore si è evoluto, chi non si è evoluto, come me, è giocoforza uscito dal settore), ma qualcosa delle problematiche tecniche connesse, riesco ancora a riconoscerlo.
Silverwillow wrote: Ma chi si fiderebbe di un robot programmato da un altro robot? Io di certo no (e credo nessuno). È qualcosa che può essere stato tentato, ma che difficilmente funzionerebbe su scala globale. Se comprassi una macchina e sapessi che è stata assemblata da un robot su istruzioni di un altro robot, senza nessun controllo umano, non sarei affatto tranquilla. Le persone hanno già difficoltà a fidarsi di altre persone, figurarsi delle macchine.
Non vorrei spaventarti, ma la produzione di software è uno dei primi e più concreti sviluppi dell'IA. Attualmente sono già molti a utilizzare ChatGPT (ad esempio) per la scrittura di programmi: si va dalla pura e quasi "ignorante" trascrizione di codice, a una più evoluta produzione che prevede l'imposizione, da parte del supervisore (oggi, ancora ufficialmente "programmatore") umano, di regole e direttive a grandi linee, e lascia all'IA il compito di risolvere i problemi e di scrivere il software.
Quindi, credo che fra tutte le possibili applicazioni, quella più concreta sia già proprio questa. Ed è proprio l'esigenza di stabilire le regole per un corretto (e "umanamente possibile") controllo umano che va affrontata subito.
Tieni poi conto che, già adesso, i controlli nel corso della produzione dei programmi software sono altamente automatizzati, e, una volta messo a punto un sistema a elevata autonomia, quello della cosiddetta "ridondanza" (cioè il controllo reciproco fra due "intelligenze gemelle") è un problema risolto da anni, nei campi dell'automazione e della robotica.
Quindi, no: posso assicurarti che stai prendeno ascensori, stai entrando in garages sotterranei o passando in sottopassaggi stradali o passaggi a livello ferroviari che vengono presidiati da sistemi automatici che garantiscono la sicurezza delle persone, e che, già oggi, vengono prodotti con un bassissimo intervento umano e che presto, probabilmente, saranno completamente progettati e, una volta in servizio, supervisionati esclusivamente dalle macchine.
Dirò di più (e forse al limite dell'improprio): se oggi qualcosa va storto nei sistemi di sicurezza (parlo ad esempio, e qui per competenza professionale attuale, dei sistemi a sicurezza intrinseca per la protezione delle persone o per la prevenzione degli infortuni sul lavoro) è proprio quando si toglie o si limita il controllo della macchina, e si tenta di sostituirlo con l'intelligenza umana (e con la sua mancanza di etica) che nascono tutti i problemi.
Ora: anche questa è una banale semplificazione, lo riconosco, rispetto al concetto attuale di IA, che punta all'autoconsapevolezza, ma la radice del problema è identica, a mio parere.
Di un robot programmato (o controllato) da altri robot, io tendo a fidarmi almeno quanto mi fido di un robot controllato da umani.
Altro esempio (concreto, anche se al limite): la tragedia del Mottarone. Non so se puoi immaginare quanti vincoli e quante ridondanze (di dispositivi e di sistema) ci siano nella gestione, nell'esercizio, nel controllo degli impianti di sollevamento delle persone (dai "semplici" ascensori, alle funivie). Eppure basta un anello debole e tutto può saltare. Anello debole che sottolineo
umano, perché l'IA non la freghi. Non c'è verso, se non "giocando sporco".
Sono convinto che il cuore del problema è proprio lo stabilire se e quali regole usare se si decide che c'è bisogno di giocare violando le regole (o di giocare con qualcuno che le può violare). Il che è una contraddizione in termini, lo so. Ma temo non ci siano alternative al puntare gran parte delle risorse su questo aspetto.
Altro esempio, e poi la finisco, è quello dell'IA negli autoveicoli a guida autonoma: "investo due nonnini che attraversano sulle strisce, o il bambino che, dall'altra parte della strada, è sfuggito al controllo della mamma?"
Edit - ho corretto un refuso: avevo scritto "Rigopiano" al posto di "Mottarone".