AI? Intervista a Lorenzo Ceccotti

/
18 mins read

Secondo capitolo della nostra serie di approfondimenti dedicati alle AI, nello specifico all’evoluzione delle AI TTI e al loro uso nel campo del fumetto. Sergio Algozzino, nel precedente articolo, ha evidenziato con passione quelle che sono – secondo il suo punto di vista – le criticità della questione. Approfondiamo adesso la situazione, entrando nel dettaglio, con Lorenzo Ceccotti.

LRNZ: illustratore, fumettista e designer che con il suo stile ha innovato il linguaggio del fumetto e non solo, è anche uno dei membri fondatori di EGAIR (European Guild for Artificial Intelligence Regulation) e, anche per questo, è oggi uno dei punti di riferimento per quanto riguarda una discussione ragionata sull’influenza delle AI nel mondo dell’arte.

Ciao Lorenzo, cominciamo entrando subito nel vivo. Ti chiedo quindi di sintetizzare quello che è per te l’aspetto più critico, oggi, della questione AI TTI.

La versione breve e sintetica è questa: il problema principale è senza dubbio il modello di business delle aziende di capitale private che offrono questi servizi. Si basano sullo sfruttamento diretto del lavoro, delle proprietà intellettuali e dei dati privati di liberi cittadini, tutti ottenuti con la pratica ormai nota del web scraping (ma non solo) e senza consenso informato o alcuna forma di licenza e in maniera assolutamente non trasparente. I dati vengono unilateralmente trasformati in asset tecno-finanziari che determinano il valore commerciale dei servizi degli AI provider sullo stesso mercato dei legittimi proprietari dei dati di partenza.

Tutto questo violando, spessissimo, anche i valori morali delle persone coinvolte. Prosperano su una forma lapalissiana di violazione di diritti fondamentali, di sfruttamento e di concorrenza sleale senza precedenti. 

E la versione un po’ più lunga e complessa quando emerge?

Emerge quando ci si chiede come sia stata possibile una situazione del genere e come sia possibile giustificarla su un piano del diritto. Ne viene fuori un tentativo abbastanza sfacciato di contrarre i diritti umani in nome del profitto di privati.

Gli AI provider più importanti, quelli che hanno iniziato creando i primi grandi modelli “general purpose”, si sono giustificati con argomenti molto precisi: stiamo operando rispettando la dottrina statunitense del “fair use”. In breve si autoassolvono da qualsivoglia dovere nei confronti dei proprietari dei dati e delle opere nei loro data set di addestramento per la natura trasformativa del loro servizio e perché si tratterebbe di attività che si sono svolte all’interno delle eccezioni consentite per la ricerca accademica. 

Questi punti sono stati entrambi smentiti in ogni modo, ormai anche da persone che lavorano all’interno di queste aziende fino allo stesso Sam Altman di Open AI, che ha detto pubblicamente che Open AI è costretta a usare materiale coperto da copyright per il training o non riuscirebbe ad avere un prodotto commercialmente competitivo, che incontri cioè le aspettative del pubblico.

Chiarisce in maniera direi definitiva che l’obiettivo è lo sfruttamento delle qualità dei dati del training – opere di artisti umani – per avere successo commerciale con un’azienda privata di capitali che di mestiere imita quei dati e che senza i quali sarebbe out of business dal giorno alla notte.

Operando quindi in una zona tutt’altro che grigia della legge, contrariamente a quello che tutti i clienti di queste aziende sono andati sostenendo in perfetta sintonia con la propaganda commerciale di queste aziende. 

La verità è che esistono svariati passaggi del nostro codice normativo come la direttiva copyright, la text and data mining exception (qualora si applichi, ma qui entreremmo in un discorso davvero troppo lungo), la convenzione di Berna che sono chiarissimi in merito. Anche il sistema normativo americano ha dei passaggi altrettanto chiari quando si tratta di Fair Use. Vi consiglio un articolo molto breve e accessibile dell’ex dipendente di Open AI Suchir Balaji che affronta la questione del Fair Use americano.

Quindi perché la situazione è così complicata?

A complicare le cose esistono molteplici questioni politiche e propriamente filosofiche. Molti pensano che sia necessario calpestare il diritto d’autore – sia commerciale che morale – perché, a fronte della fine di un mercato di pochi egoisti e privilegiati soggetti che comunque operavano già grazie al saccheggio delle proprietà intellettuali altrui (secondo i sofisticatissimi sillogismi di “tutti gli artisti rubano”, “nessuno si inventa nulla”, “l’artista individuale non può nulla senza la collettività”), questi servizi commerciali ci permetteranno di compiere il primo passo verso una sorta di utopia. Un mondo in cui il concetto stesso di mercato e di lavoro finiranno, cancellando di fatto il capitalismo per andare in una direzione di reddito universale garantito per tutti, in cui tutti saremo azionisti delle aziende che ci daranno uno stipendio (stabilito unilateralmente non si capisce da chi e secondo quale principio) e in cui la conoscenza sarà libera di circolare senza gli ottusi vincoli del diritto d’autore o anche della privacy (questo ultimo punto spesso difeso secondo quell’altro sofisticatissimo sillogismo di “io tanto non ho nulla da nascondere”).
Sam Altman stesso sostiene che le AI imporranno una “revisione del nostro contratto sociale” e che bisognerà accettare il cambiamento per “turbo-caricare la nostra economia”. 

Questo ragionamento, spesso applaudito come un modo di affrontare la questione del mercato del lavoro ragionando out of the box, in maniera scevra da preconcetti vetusti e da schemi mentali limitati si sta rapidamente palesando per quello che è, ovvero un ragionamento che esce solo da un perimetro, quello del rispetto dei diritti umani e del lavoro di individui liberi, puntando dritti verso un’utopia capitalista vera solo per quelle pochissime aziende in grado di erogare servizi AI/ML competitivi su scala globale e per le hardware companies a loro collegate e che opereranno per fornire loro device e infrastrutture secondo la vecchissima, “capitalistissima” logica di domanda e offerta a partire da materie prime e risorse energetiche limitate. Internet e l’AI non sono composte da spirito santo, restano comunque cose, fatte di materie prime e trasformate industrialmente e distribuite su un mercato fisico. Anche avendo delle AI completamente gratuite sul piano software, tutto il discorso si sposterebbe sul monopolio hardware e sulle capacità di erogazione dei servizi. Credo insomma che l’idea di azzerare il capitalismo a partire da prodotti in vendita su un mercato capitalista sia quantomeno problematica, specie promossa da aziende schiettamente for profit

Mi fermo o dovrei infilarmi nel ginepraio dei bias e di cosa significano in un mondo in cui questi servizi sono monopolizzati da un’azienda soltanto su scala globale.

Le AI TTI sono una minaccia al mondo dell’arte e dell’illustrazione (e dei fumetti) o sono potenzialmente, se correttamente regolate, una possibilità di evoluzione se eticamente regolamentate?

Non credo che esistano tecniche che possano essere una minaccia al mondo dell’arte, di per sé. Credo invece che le aziende e le loro politiche aziendali possano esserlo. Credo che molte aziende nell’ambito delle AI (Open AI, Stable Diffusion, Midjourney ecc.) siano una diretta minaccia a una grandissima fetta di artisti in attività.

La regolamentazione e un maggiore grado di consapevolezza su cosa effettivamente sono e come funzionano le AI sono chiaramente il primo passo da fare per limitare i danni.

Parliamo adesso di EGAIR: puoi presentare il progetto e spiegare come si propone e con quali finalità?

EGAIR è un network di artisti e cittadini europei che si sono organizzati attorno un manifesto in 5 semplici punti.

Riassumendo, EGAIR chiede che ogni azienda o privato che intendano usare uno specifico dato per l’addestramento o il fine tuning di una AI debbano farlo in totale trasparenza e solo dopo aver chiesto il permesso al legittimo proprietario del dato. A quel punto crediamo sia corretto che ci sia la possibilità di rispondere in almeno tre modi: cedendo il dato gratuitamente per il libero sfruttamento commerciale, proibendo l’uso o cedendo il dato ai termini e condizioni di un contratto di licenza, limitandone magari l’àmbito e la durata dello sfruttamento a determinate condizioni economiche.

Dall’arrivo delle AI TTI come è cambiato il lavoro dei fumettisti e degli illustratori? Soprattutto, quali sono le preoccupazioni del settore in merito al futuro del lavoro e quali sono le previsioni sul medio – lungo periodo?
Da un confronto avuto negli ultimi mesi con artisti e addetti ai lavori sembra esserci grande timore per la contrazione delle commissioni: molti artisti lamentano un calo delle commissioni in àmbito pubblicitario e simili, ambienti che hanno permesso spesso ai giovani artisti di fare esperienza e sostentarsi durante i primi periodi. Quanto queste dinamiche sono estese e quanto stanno condizionando l’ambiente?

Basta vedere la quantità di copertine di libri, riviste, illustrazioni editoriali e manifesti realizzati con questi servizi, specie da grandi editori.

Sono chiaramente opportunità di lavoro andate in fumo che oltretutto rappresentano un precedente gravissimo di svalutazione del lavoro dei creativi, proprio quei creativi che producono le immagini necessarie a creare i modelli generativi commerciali da cui vengono rimpiazzati per il lucro delle aziende che li offrono sul mercato. Ci sono anche casi a mio avviso piuttosto esemplari come quello recentissimo del sole 24 ore, in cui di fronte a tagli generali di budget della testata, piuttosto che rinunciare all’illustrazione di copertina o di dover pagare troppo poco un artista freelance si è pensato di usare un sistema generativo commerciale per ovviare a entrambi i problemi. Si è pensato di aver fatto una cosa corretta sul piano etico (nessun artista sottopagato) e professionalmente virtuosa (nonostante i tagli di budget ho comunque portato a casa l’immagine che serve al mio giornale).

Il problema è che così facendo a mio avviso si è fallito due volte: una volta perché, se è vero che non hai sottopagato un artista, hai contribuito a rinforzare l’idea che ne vadano sottopagati migliaia. Inoltre li hai di fatto sfruttati comunque, legittimando con l’autorevolezza di una testata importantissima il lavoro di questi fornitori di contenuti generativi, derivati statistici del lavoro di artisti ottenuti calpestando deliberatamente i loro diritti e il loro lavoro per lucro. L’altra svista è a mio avviso altrettanto grave: invece di non usare alcuna immagine – cogliendo l’occasione di dichiararne così l’oggettivo valore sul mercato e magari anche di aprire un’interessante discussione seria sull’argomento (non possiamo permetterci un artista e quindi non avremo un’immagine originale) – si è svalutato definitivamente il lavoro di un illustratore che ne esce sostituibile da un servizio che vende pixel colorati un tanto al chilo (ben peggio di una stock image che almeno è stata venduta volontariamente da qualcuno per un suo vantaggio economico). Risolvendo così, come se la cover di un giornale fosse uno spazio da decorare a prescindere, costi quel che costi. Ovviamente è un problema immenso.

Lo è principalmente per come le aziende provider di servizi AI si mettono nelle condizioni di essere realmente competitive con gli artisti, ma anche per come chi acquista i loro servizi li legittima perdendo completamente di vista il problema politico e etico alla base. 

A questo aggiungici che la comunicazione di AI provider e influencer è tutta fondata sul concetto di poter risparmiare sul costo di un collaboratore umano per accentrare sotto un’unica persona mansioni che prima andavano delegate a uno o più professionisti. 

Adobe – con il suo slogan “Skip the photoshoot!” – ha ad esempio lanciato una campagna di comunicazione proprio basandola su questi principi.

Chiaramente i risultati di un approccio simile sono, all’occhio di un professionista, per lo più patetici perché dimostrano la totale mancanza di cultura e consapevolezza di chi si affida a questi servizi. È chiaramente gente che si emoziona nel vedere un risultato che non sarebbe in grado di ottenere altrimenti, che si ostina a non collegare il risultato con i dati di addestramento e che oltretutto non è assolutamente in grado di capire fino in fondo se quello che ha ottenuto dal servizio di AI è davvero un’immagine (o un testo, un brano musicale ecc.) interessante e che risolva uno specifico quesito di comunicazione.

Come se non bastasse, approcci del genere mortificano aprioristicamente la possibilità di collaborazioni fra persone che intendano mettere ognuno la propria competenza a titolo di investimento in un progetto comune. L’idea che tutti possano fare tutto, spendendo poco e che con le AI ognuno di noi non abbia più bisogno di nessuno è prima di tutto una bugia, visto che le AI partono sempre e comunque dal lavoro di qualcun’altro. È poi una bugia che rivela uno scenario interiore di desolazione anti-umanistica, di faciloneria e sciatteria assoluta. Mi ricorda un po’ quel primo periodo del desktop publishing in cui tutti erano diventati graphic designer, facendo danni irreparabili alla nostra cultura visiva che paghiamo ancora oggi ma, se possibile, centomila volte peggio perchè brutalizza pure il lavoro di migliaia di bravissimi graphic designer.

Cosa possono fare concretamente gli utenti per supportare gli artisti?

Non legittimare questo tipo di modello di business: usando i servizi di aziende che operano sfruttando senza autorizzazione le opere di artisti o i dati di individui liberi stiamo confermando platealmente che il lavoro degli artisti, indispensabile per ottenere modelli con quelle specifiche qualità, non ha più alcun valore di fronte allo strapotere economico e tecnologico. Quindi non svalutando il lavoro degli artisti sulla base dell’offerta commerciale degli AI provider. Non deve stupirci se gli artisti non sono contenti quando vedono usare il loro lavoro con l’intermediazione di un’azienda che li sta sfruttando a scopo di lucro senza alcuna autorizzazione. In dataset come LAION 5B ho trovato centinaia di copie dei miei disegni che vengono utilizzate da aziende private di cui non condivido nulla sul piano etico e politico. Anche solo dimostrare di comprendere la violenza sul piano morale che stiamo subendo sarebbe già di grande aiuto. 

Poi, molto più pragmaticamente: esattamente come è successo con gli NFT, in cui sarebbe sicuramente bastato attendere qualche mese per evitare il disastro energetico e climatico irreversibile causato dai sistemi proof of work, allo stesso modo sarebbe bastato aspettare di avere degli AI provider in grado di rispettare la comunità artistica (parlando di arte, ma lo stesso vale per la privacy, ad esempio).

Molti utenti e clienti di questi servizi hanno invece preferito non aspettare di trovare una forma di accordo con le comunità che stavano lamentando una forma di sfruttamento e violenza da parte degli AI provider e lo hanno fatto pur di guadagnare un posto di visibilità e garantirsi un ruolo di “autorevolezza”: influenza da prime mover, la classica forma di aggressività implicita al contesto capitalistico. Un’aggressività e una noncuranza chiaramente tutte a danno di chi sta chiedendo aiuto in una posizione di minoranza e a supporto di una manciata di oligopoli plutocratici. 

Questi “pionieri delle AI generative”, come piace loro spesso autodefinirsi, hanno spesso dimostrato una totale mancanza di empatia, prendendosi letteralmente gioco di chiunque ponesse una qualsiasi forma di critica al modello di business di alcuni AI provider specifici, spesso al grido di “adattati o muori” (“adapt or die”) o re-inquadrando il ruolo dell’artista come quello di un egoista reazionario spaventato dalla novità che, privilegiato e convinto di essere un genio, vuole privare gli altri della gioia di creare, tenendosi strette le sue abilità e le sue opere; da copione del perfetto pioniere AI si tratterebbe oltretutto di opere di cui solo erroneamente può sentirsi l’autore, visto che non esiste artista che abbia un tasso di originalità sufficiente per potersi considerare tale, visto anche che tanto “tutti rubano” e “tutto è un remix”.

Detto questo, disinformano continuamente rafforzando la convinzione che gli artisti siano contrari alla tecnologia tout court, che ne siano addirittura spaventati, ma è un modo molto semplice di delegittimare quella che invece è una normale, circostanziata critica alle politiche di mercato di una manciata di aziende private.

Per concludere: credo sarebbe bastato aspettare di trovare un accordo pacifico e andare avanti tutti insieme, artisti e utenti di servizi AI, pionieri o meno che siano e tenere a mente che usare i servizi attuali, per come sono concepiti e sviluppati significa supportare direttamente le attività di aziende private che inquinano, sprecano risorse, calpestano i diritti di persone libere svolgendo spesso e volentieri ruoli chiave in ambiti politici con cui si potrebbe non essere affatto d’accordo.

Quali sono le vostre aspettative nei confronti del pubblico? In che modo i lettori potrebbero sostenere gli artisti? L’unica soluzione oggi è la rinuncia all’uso delle AI TTI?

Sicuramente aiuterebbe non supportare le attività fondate sullo sfruttamento illecito del lavoro, esattamente come avviene anche in altri àmbiti. Poi aiuterebbe un sistema normativo che sgravi parzialmente gli utenti di dover fare ogni volta valutazioni di questo tipo.

Cosa ti aspetti dal futuro del tuo lavoro e cosa prevedi accadrà nel settore, nei prossimi anni, alla luce di queste evoluzioni tecnologiche?

Il mio lavoro è sempre stato ibrido e con un rapporto radicale con la tecnologia di ogni tipo, specie con il digitale e l’arte generativa, che pratico dalla fine degli anni Novanta. Confido che arriverò anche a utilizzare sistemi di intelligenza artificiale basati su diffusion models e simili, ma solo quando ne potrò avere il controllo sugli aspetti che contano, ad esempio sulla scelta dei dati da utilizzare, magari con sistemi narrow field per non essere costretto a sfruttare il lavoro di qualcun altro senza alcuna autorizzazione, un po’ come ha fatto Anne Ridler con la sua opera Mosaic Virus. Al momento il tempo per un tipo di attività del genere è un po’ poco, il tempo che resta da dedicare alle AI è per la ricerca e l’attivismo.

Ogni grande rivoluzione tecnologica ha generato timori simili a quelle che oggi stanno vivendo gli artisti in merito alla diffusione delle AI TTI: i pittori temevano la fotografia, i musicisti temevano i sintetizzatori. Non è possibile che queste paure siano esagerate e che le AI si integreranno nel panorama artistico come strumenti complementari?

Non esiste la paura della tecnologia nella comunità artistica, per lo meno non in quella con cui interagisco. Esiste invece un problema etico, politico ed economico con degli esseri umani a capo di aziende che offrono servizi telematici sfruttando il lavoro di gente non consenziente. Chiunque sposti il problema sulla paura della tecnologia, sui media panic e compagnia mi sembra stia creando uno straw man argument da manuale. Il problema quindi c’è, ma non è la tecnologia in sé, è lo sfruttamento del lavoro e la violazione di diritti umani da parte di aziende private con un potere economico spropositato e chiaramente votate al monopolio. I fotografi o gli artisti digitali, pur essendo entrati prepotentemente in àmbiti lavorativi dove prima potevano operare solo artisti visivi manuali come pittori e illustratori, non sfruttavano il lavoro di artisti viventi: usavano tecniche e media differenti in grado di produrre quello specifico risultato grazie all’uso strumentale della sola tecnologia. Per intenderci: per scattare una foto non avevi bisogno di fagocitare cinquantamila opere d’arte di pittori, potevi fare il fotografo senza aver mai visto una foto o un dipinto prima.

L’AI, invece, non può funzionare senza sfruttare i dati del training che sono letteralmente il lavoro dei suoi concorrenti sul mercato, concorrenti che di colpo perdono ogni diritto morale e sullo sfruttamento commerciale del proprio lavoro. Non si tratta quindi di uomini spaventati dal risultato della pura tecnologia: è un problema di uomini che violano i diritti e calpestano il lavoro di altri uomini in nome di una posizione economica e politica di egemonia pressoché assoluta, le macchine e la tecnologia non c’entrano nulla. Chiunque vi dica il contrario sta avvelenando i pozzi di una contestazione estremamente circostanziata e precisa spostandola su questioni di paura irrazionale del cambiamento.

USA, Cina, Unione Europea. Ci sono diverse direzioni, diverse interpretazioni e diverse attuazioni (con tempi diversi) di diverse normative. La discussione è lunga, complessa, non c’è unanimità. Nel frattempo le AI si evolvono a ritmi sempre più intensi. Le loro applicazioni sono ovunque, gli investimenti sono mostruosi. Non c’è il rischio di stare cercando di correggere la direzione di una valanga che invece, vista la forza degli interessi in campo (penso anche all’industria militare), sia troppo più grande delle possibilità di movimenti come EGAIR o della volontà dei singoli utenti?

È sicuramente un discorso molto ampio e complesso, davvero, però ci sono alcuni punti su cui mi soffermerei. Prima di tutto non concordo con chi parla di AI cinesi, americane o europee. Si tratta di AI provider privati, finanziati privatamente e non certamente governativi, che staranno in un determinato paese finché gli conviene, finché avranno i giusti finanziamenti, con le libertà di sperperare risorse in barba a qualsiasi accordo internazionale e il potere di cui hanno bisogno. Il giorno che non sarà più così si sposteranno. I governi si illudono di avere il controllo su queste aziende-nazione, ma è chiaramente un errore.

Anche in un paese che, nonostante le crisi ripetute, resta comunque potentissimo come gli Stati Uniti, è stato chiaramente Trump a piegarsi alle necessità degli oligarchi delle big tech, non certo il contrario. E lo ha fatto platealmente, basando la sua politica internazionale sulla necessità di maggiori risorse per le AI, aprendo addirittura a occupazioni militari di paesi sovrani per ottenere le risorse necessarie ai business plan di una manciata di aziende. Anche il discorso della nostra Presidente del Consiglio presso COP29 parla chiaro e segnala la necessità del doppio delle risorse energetiche per il 2030 per sopperire alle necessità degli AI provider.

Questo approccio plutocratico e antidemocratico, a mio avviso, va combattuto in prima linea con qualsiasi forma di attivismo politico, a prescindere dalla questione AI. EGAIR fa una piccolissima parte del lavoro: eppure, anche solo con quella minima attività che può permettersi, dopo tre anni di lavoro intenso con le istituzioni i risultati sono arrivati e sono sotto gli occhi di tutti. L’Europa vanterà l’AI Act, il primo sistema di regole per un’industria responsabile delle AI ed è il frutto di un lunghissimo e dettagliatissimo lavoro di centinaia di attori differenti, dagli attivisti politici come noi, alle istituzioni che si occupano di tutela dei diritti, alle accademie e alle università fino ad arrivare anche ai rappresentanti delle big tech che ovviamente non si fanno sfuggire nessuna occasione per portare il discorso politico dalla loro.

Nel processo Kadrey contro Meta sono usciti fuori dei documenti che spiegano chiaramente che l’attivismo politico è una spina nel fianco di aziende gigantesche come Meta. Meta non ha potuto usare i dati dei cittadini europei, né ha potuto esportare la sua AI TTI in Europa per chiare infrazioni del GDPR e del diritto d’autore.

Quindi no, direi che le attività che stiamo svolgendo non solo hanno un valore, ma confidiamo che ci aiuteranno a raggiungere un futuro di convivenza pacifica con gli AI provider. Magari di compromesso, ma passando per un processo collegiale il più aperto possibile. Il problema è che si fa molto prima a scrivere due articoli superficiali e ideologici (siano essi contro che a favore) su un nuovo prodotto commerciale che ad approfondire davvero quelle che sono le miriadi di implicazioni tecniche, politiche e sociali dell’introduzione di una tecnica nuova come quella dei sistemi di machine learning applicati a servizi generativi.

Quindi l’impressione è di tappare una diga con un dito?

È ovvio che sembri impensabile che qualcosa che si sta muovendo così lentamente come il sistema normativo possa effettivamente arrivare a controllare o contenere una scheggia impazzita come il mercato in pieno hype. Eppure credo che tutto questo lavoro ci aiuterà di sicuro a definire dei punti cardinali per orientarsi tutti con una maggiore consapevolezza collettiva. Andrà a vantaggio di tutti, compresi gli AI provider e anche di quegli entusiasti un po’ passivo-aggressivi che ci hanno attaccato di continuo per tutto questo tempo. Se vogliamo avere delle AI pubbliche, trasparenti, create nel rispetto di tutti è sicuro che la strada da intraprendere deve essere quella della regolamentazione e non quella del “liberi tutti” su un mercato ultra-capitalista che non potrà che giungere a conclusioni opposte che ci danneggeranno tutti in nome del profitto di pochi.

Ipotizziamo un approccio “pessimista”: il timore diffuso è che questa resistenza sia essenzialmente limitata e poco impattante sul sistema nel suo complesso. Non vi è la possibilità che possa avvenire quanto già accaduto con la Gig Economy, la Fast Tech e la Fast Fashion. Per quanto eticamente deprecabili, tali abitudini hanno comunque preso piede e si sono affermate riscuotendo ampio successo di pubblico, finendo per condizionare il mercato. È possibile che la discussione sulle AI TTI abbia invece più successo? L’andare a sconvolgere la sensibilità e il piacere della fruizione dell’opera artistica è davvero così forte da permettere a progetti come EGAIR di scardinare il gioco di Stable Diffusion, OpenAI & Co.?

Beh, ma è ovvio che EGAIR da sola non può nulla. Se succederà sarà per un lavoro collettivo di tantissimi attori che operano nel settore della cultura, del diritto e della tecnologia. E poi, come dicevo, per una maggiore consapevolezza. Fast fashion, gig economy, fast tech non sono state deprecabili solo sul piano etico: sono un disastro socio-politico e ambientale conclamato, continuano a peggiorare a danno di moltissimi per il vantaggio di pochissimi ed è chiaro a tutti che sono stati errori cui ora è difficilissimo riparare. Sarebbe stato sicuramente meglio intervenire prima che errori simili venissero commessi a ripetizione ovunque.

Solo un pazzo batterebbe consapevolmente la stessa strada due volte solo per il fatto che è già successo, a meno che non sia fra i pochi a trarne vantaggio, chiaramente.

Sulle AI, perlomeno in Europa, si sta provando (a mio avviso comunque troppo timidamente) a muoversi in anticipo e per quanto sembri il contrario sono chiaramente percepibili gli effetti di una sorta di freno psicologico a procedere a briglia completamente sciolta per gli AI provider. Moltissimi sono infatti in attesa di capire quali saranno i termini contenuti nel template del code of practice del neonato AI office, ad esempio. Definirà le best practice per la trasparenza dei dati (uno dei temi fondamentali per EGAIR) e anche un documento come questo, che non fa altro che applicare pedissequamente l’AI Act e che si limiterà a incoraggiare certi comportamenti piuttosto che altri senza obbligare nessuno a farlo, creerà comunque un precedente etico importantissimo che andrà sicuramente a ridefinire la linea aziendale degli AI provider illustrando quella che è la posizione del garante in materia in caso di eventuali controversie tra aziende e cittadini.

Grazie mille Lorenzo per il tempo che ci hai dedicato.

Pasquale Laricchia

Cominciai a correre. Finché i muscoli non mi bruciarono e le vene non pomparono acido da batteria. Poi continuai a correre.

Michele Tarzia

Vivo nell'ombra dei miei pensieri, ai margini della mia memoria

Articolo precedente

Kalya n.29
“Dove tutto è iniziato”

Prossimo Articolo

Zagor n.119-122
“La rabbia degli Osages”

Ultimi Articoli Blog

Quiz: Ken Parker

Quanto sei preparato sul personaggio di Ken Parker e sul mondo creato da Giancarlo Berardi e…