Forse la questione delle intelligenze artificiali sta un po’ sfuggendo di mano, al punto che in gioco entrano direttamente l’Unione Europe e gli Stati Uniti con la programmazione dell’Ai Act.
Gli organi competenti hanno sentito il bisogno di regolamentare l’uso delle intelligenze artificiali, segno che probabilmente la mano dell’uomo tende un po’ ad approfittare dell’aiuto che queste possono fornire, fino a compiere veri e propri orrori giudiziari.
Ecco cos’è successo!
L’azione di Ue e Usa: il codice di condotta Ai
A stretto giro, nelle settimane a venire Ue e Usa presenteranno un codice di condotta comune relativo all’uso delle intelligenze artificiali, l’Ai Act, appunto.
Ad annunciarlo, la Vicepresidente della Commissione Europea Margarethe Vestager e Antony Blinken, segretario di Stato americano, a seguito del Consiglio Ue e Usa in Svezia, a tema commercio e tech.
L’Ai Act è ancora in fase di negoziazione in Ue, però il codice di condotta sulle intelligenze artificiali al momento è aperto a qualsiasi azienda ne condivida i valori. Intanto, però, viene chiesto ai funzionari Ue di non usare le intelligenze artificiali per la redazione di documenti pubblici e giuridicamente vincolanti.
An “AI Pact” ahead of the EU AI Act.
— Thierry Breton (@ThierryBreton) May 24, 2023
Agreed with Google CEO @SundarPichai to work together with all major European and non-European #AI actors to already develop an “AI Pact” on a voluntary basis ahead of the legal deadline of the AI regulation. pic.twitter.com/fNTpMPlc49
Un esempio per tutti è l’uso di ChatGpt in Texas
Contemporaneo alla dichiarazione del codice di condotta sulle intelligenze artificiali di Ue e Usa, in Texas l’uso errato di ChatGpt ha portato al divieto di un giudice federale texano di utilizzare ChatGpt come strumento lavorativo in tribunale.
Infatti, la costruzione delle cause che sfrutta impunemente l’intelligenza artificiale in questione, ha fornito precedenti falsi, mettendo in ridicolo l’avvocato che ha usato ChatGpt allo scopo di farsi aiutare nel lavoro.
Brantly Starr, il giudice federale in questione, ha provveduto alla redazione di un documento che ogni avvocato deve presentare in aula. Questa dichiarazione attesta che nessuna parte della causa è stata redatta dalle intelligenze artificiali o, altrimenti, che le informazioni ottenute siano state accertate da controllo umano.
Perché succede?
Questo riguarda il metodo dell’apprendimento delle intelligenze artificiali, argomento ancora in discussione. In gergo tecnico, gli sbagli di questa portata sono chiamati allucinazioni, proprio perché sembrano tanto pertinenti e di competenza, ma sono poi del tutto sbagliate.