Già da qualche anno l’intelligenza artificiale è oggetto di studio da parte dei giuristi sotto molteplici angoli prospettici. E di recente l’Unione europea si è posta l’obiettivo di legiferare in materia con un approccio che è stato definito organico (a differenza di quello parcellizzato che caratterizza gli Stati Uniti; cfr. B. Marchetti, L. Parona, La regolazione dell’intelligenza artificiale: Stati Uniti e Unione europea alla ricerca di un possibile equilibrio, in www.dpce.it, 2022, 1). Nell’aprile del 2021, la Commissione ha formulato una proposta di Regolamento (detta “legge sull’intelligenza artificiale”) i con l’intento di introdurre: a) regole armonizzate per l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale (“sistemi di IA”) nell’Unione; b) il divieto di determinate pratiche di intelligenza artificiale; c) requisiti specifici per i sistemi di IA ad alto rischio e obblighi per gli operatori di tali sistemi; d) regole di trasparenza armonizzate per i sistemi di IA destinati a interagire con le persone fisiche, i sistemi di riconoscimento delle emozioni, i sistemi di categorizzazione biometrica e i sistemi di IA utilizzati per generare o manipolare immagini o contenuti audio o video; e) regole in materia di monitoraggio e vigilanza del mercato). Quindi, verso la fine del 2022 è stato il turno di una proposta di Direttiva, dedicata in modo specifico alla responsabilità extracontrattuale derivante dall’impiego delle tecniche di intelligenza artificiale.
Il percorso verso la regolamentazione, di per sé irto di difficoltà, è divenuto particolarmente tortuoso in virtù dei più recenti sviluppi dell’intelligenza artificiale generativa (definita da O. Aydın, E. Karaarslan, Is ChatGPT Leading Generative AI? What is Beyond Expectations?, 2023, https://ssrn.com/abstract=4341500, come un tipo di intelligenza artificiale che “concentrates on generating new and original information by machine learning on massive databases of experiences”), il cui fenomeno di punta è rappresentato da ChatGPT, un servizio che la sua ideatrice (una società statunitense) ha reso accessibile al pubblico da pochi mesi, ottenendo un enorme successo quasi ovunque. Il sistema peraltro non è fruibile dagli utenti residenti in alcuni Stati tra i quali la Federazione Russa, la Repubblica di Bielorussia, la Repubblica Popolare Cinese, la Repubblica Popolare Democratica di Corea, Repubblica Islamica dell’Iran, l’Afghanistan e la Repubblica Bolivariana del Venezuela (si veda quanto riportato online all’indirizzo https://www.getdroidtips.com/why-chatgpt-is-not-working-in-my-country/). La new entry è qualcosa di non equiparabile a un chatbot che fornisce risposte alla persona che lo interpella. Invero, ChatGPT, ascrivibile alla famiglia dei Generative Pre-trained Transformers (a propria volta rientranti nei Large Language Models), riesce a sfruttare le reti neurali per ricercare, analizzare e comprendere una gran massa di informazioni e quindi produrre come output testi pertinenti alla ricerca impostata dall’utente, anche piuttosto articolati (cfr. R. Sarell, Restraining chatGPT, in corso di pubblicazione in UC Law SF Journal, 2023, https://ssrn.com/abstract=4354486).
L’avvento di questi dispositivi di intelligenza artificiale ha suscitato una serie di problematiche in diverse aree del diritto (per un primo inventario, v. J. Paul, A. Ueno, C. Dennis, ChatGPT and consumers: Benefits, Pitfalls and Future Research Agenda, in International Journal of Consumer Studies, 2023, 1-13, https://doi.org/10.1111/ijcs.12928). Si pensi alla proprietà intellettuale, dove ci si chiede se gli output di ChatGPT (o di sistemi analoghi) possano fruire della protezione accordata dal diritto d’autore; e, in caso affermativo, chi sia il titolare delle relative prerogative. O, ancora, si pone la necessità di verificare se con il processo di addestramento e con la generazione dei testi venga violato il copyright ad altri spettante su opere dell’ingegno (sul punto, v. C.T. Zirpoli, Generative Artificial Intelligence and Copyright Law, in CRS Legal Sidebar, 2023, 10922, https://crsreports.congress.gov/product/pdf/LSB/LSB10922). Non meno rilevanti sono i timori che i modelli intelligenza artificiale generativa esasperino i problemi legati a fake news e hate speech, dove la disciplina di recente dettata dal Data Services Act (Regolamento (Ue) 2022/2065) rischia di essere inadeguata a fronteggiare tali insidie (cfr. P. Hacker, A. Engel, M. Mauer, Regulating ChatGPT and other Large Generative AI Models, 2023, arXiv.2302.02337v4, § 5). Su un piano generale, a entrare in crisi è la stessa logica di regolamentazione che innerva la proposta di “Legge sull’intelligenza artificiale” presentata dalla Commissione europea, specie per il l’intendimento di puntare all’individuazione dei sistemi di intelligenza ad alto rischio, e a per come tale categorizzazione dovrebbe avvenire (cfr. N. Helberger, N. Diakopoulos, ChatGPT and the AI Act, in Internet Policy Review, 2023, 12.1 https://doi.org/10.14763/2023.1.1682, dove si evidenzia tra l’altro che “AI systems such as ChatGPT differ on at least two important points from the ‘traditional’ AI systems the Act has originally been written for: dynamic context and scale of use”). Non mancano poi le preoccupazioni sul versante della privacy, anche in considerazione del fatto che si ritiene che i sistemi in questione siano particolarmente vulnerabili ai c.d. inversion attacks (cfr. P. Hacker, A. Engel, M. Mauer, op. cit., § 4).
Di queste preoccupazioni sembra essersi fatto carico, nel nostro paese, il Garante per la protezione dei dati personali che, avvalendosi dei poteri conferiti alle autorità nazionali di controllo dall’art. 58, par. 2, lett. f, RGPD, ha adottato in data 30 marzo 2023 un provvedimento mediante il quale ha disposto con effetto immediato la misura della limitazione provvisoria del trattamento dei dati personali degli interessati stabiliti nel territorio italiano (il testo del provvedimento può leggersi in ForoNews, 31 marzo 2023). Il Garante ha ritenuto opportuno intervenire in via d’urgenza, a fronte di uno scenario in tumultuosa evoluzione che non consentiva di attendere gli esiti dell’indagine al riguardo avviata. Si sono anzi ravvisati gli estremi di una situazione di estrema urgenza, al punto che il provvedimento è stato preso dal Presidente, sì che, per mantenere la sua efficacia, dovrà essere ratificato dall’organo collegiale nella prima riunione utile (da tenere non oltre i 30 giorni dalla sua adozione). Alla base del comando impartito al gestore di ChatGPT, si individuano quattro criticità:
a) la carenza di informativa nei confronti tanto degli utenti, quanto degli interessati i cui dati vengono raccolti dal gestore statunitense e trattati tramite il servizio in esame;
b) l’assenza di un’idonea base giuridica in relazione alla raccolta dei dati personali e al loro trattamento per scopo di addestramento degli algoritmi sottesi al funzionamento del servizio (A tale proposito, P. Hacker, A. Engel, M. Mauer, op. loc. cit., sottolineano come “legal basis under Article 6 GDPR is necessary for any use of personal data for training”, ipotizzando che “ even the model itself might be considered personal data, considering the possibility of inversion attacks).
c) il rischio di trattare dati personali inesatti;
d) la circostanza che, sebbene il servizio sia precluso a chi non ha compiuto 13 anni, non esistono meccanismi per filtrare gli utenti in base all’età.
Questa iniziativa (la prima di questo genere nell’Unione europea) potrebbe al limite sfociare in un divieto o, comunque, in prescrizioni piuttosto rigide. La riflessione giuridica non potrà prescindere da questi sviluppi, come pure da quelli del dibattito che si sta svolgendo nelle sedi istituzionali dell’Unione europea in vista della traduzione in atti legislativi delle summenzionate proposte. Occorre, nondimeno, una buona dose di cautela per non precludere in radice il dispiegarsi delle ricadute positive che si attendono dai sistemi di intelligenza artificiale generativa nel campo della ricerca scientifica (ivi compresa quella biomedica) dell’istruzione e in alcuni settori professionali (v., ad es., I. Dönmez, S. Idin, S. Gülen, Conducting Academic Research with the AI Interface ChatGPT: Challenges and Opportunities, in Journal of STEAM Education, 2023, 6 (2), 101-118, ). I Large Language Models si prestano, tra l’altro, a supportare le scelte dei sanitari in ordine alle decisioni terapeutiche (v., ad es., B.V. Janssen, G. Kazemier, M.G. Besselink, The use of ChatGPT and other large language models in surgical science, in BJS Open, 2023, 7(2):zrad032, https://doi.org/10.1093/bjsopen/zrad032). Resta ferma in tutti questi campi l’esigenza che gli scienziati, i ricercatori e i professionisti sovraintendano al lavoro dei GPT e rivedano criticamente i relativi output (cfr. W. Castillo-González, The importance of human supervision in the use of ChatGPT as a support tool in scientific writing, in Metaverse Basic and Applied Research, 2023, 2:29, https://mr.saludcyt.ar/index.php/mr/article/view/29).