L'intelligenza artificiale (Ai) è un campo in rapida evoluzione che comprende diverse tipologie di modelli e applicazioni. Anche se il termine è più fantascientifico che tecnologico, ormai identifica un nuovo approccio che cambierà molti aspetti nel mondo lavorativo e non e nel modo con cui sarà definita la normativa nazionale ed internazionale. Per ora siamo solo agli inizi, proviamo ad inquadrare la situazione per modelli, campi di applicazione, tipi di prodotto e conseguenze legali.
Tra i vari tipi di AI oggi disponibili spiccano il Gpt (Generative Pre-trained Transformer) e i modelli di linguaggio a larga scala (LLMM, Large Language Model), che hanno dimostrato una grande versatilità nell'elaborazione del linguaggio naturale. L'elaborato generato dall'AI può assumere diverse forme, come testi "originali", testi modificati, immagini, audio, video, analisi dei dati e persino software. Questa vasta gamma di formati consente di impiegare l'AI in diversi contesti: dalla scrittura di testi, ai servizi di traduzione automatica alla creazione di contenuti multimediali.
Tipologie di servizi di intelligenza artificiale
I servizi possono essere disponibili singolarmente (con o senza Api) oppure integrati in una suite preesistente (quello che ha fatto Microsoft con i prodotti di OpenAi). Inoltre se rilasciati con licenza open source possono essere installati, mantenuti e modificati da personale proprio, sopportando le relative spese di hosting e di consumo.
La commercializzazione dell'AI viene oggi offerta in molteplici opzioni. Alcuni servizi di chatbot basati sull'AI sono gratuiti e accessibili a tutti, mentre altri possono richiedere un pagamento per accedere a funzionalità avanzate. Inoltre, le Api (Application Programming Interface) consentono alle aziende di integrare l'AI nelle proprie applicazioni o servizi. Esistono anche modelli di AI che possono essere scaricati e usati localmente.
Come si adegua la normativa
Nel contesto legale si parla di svariate leggi che in qualche modo hanno a vedere con l’AI. Certamente sarà centrale il recente AI Act dell’Unione europea, ma comunque ci sono diverse normative che giocano un ruolo. Una delle principali è il Gdpr (General Data Protection Regulation), che mira a proteggere la privacy dei dati personali degli individui nell'Unione Europea.
Raccolta di dati e false informazioni lasciano pensare a danni agli utenti, ha comunicato la Federal Trade Commission Usa ad OpenAI in un report di venti pagine. Tra le tante questioni, la Ftc starebbe esaminando anche le pratiche di sicurezza di OpenAI. Questa è la prima, vera azione del mondo normativo verso il settore nel quale OpenAI è (mediaticamente) leader, ma non attore solitario, dopo il blocco che OpenAi aveva avuto in Italia al momento del lancio in Europa.
Va poi considerata la possibilità che l’AI inventi fatti o dati non veritieri. È un fenomeno statistico, quindi accade con una certa frequenza, alle volte generando problemi seri (come qualsiasi pagina web che riporti dati erronei o volutamente falsi). Anche in questo caso le conseguenze possono essere enormi.
Le 4 intelligenze artificiali conversazionali più diffuse
Gli annunci diretti ed incrociati si susseguono a ritmo rapido. Al momento ci sono quattro proposte principali, ovvero Bard (Google), Claude (Anthropic), LLaMa (Meta) e ovviamente chatGPT (OpenAI). Vediamoli in breve secondo gli annunci aggiornati a metà luglio 2023.