Il concetto di intelligenza artificiale può essere definito come macchine in grado di imitare ciò che gli esseri umani possono fare, dove la capacità di problem solving inerente agli esseri umani può anche essere realizzata dalle macchine.
Al giorno d’oggi, il concetto di intelligenza artificiale sta gradualmente guadagnando un posto nella vita umana in molte aree con il progresso della tecnologia. Tanto che l’intelligenza artificiale può apparire nelle nostre vite sotto forma di auto senza conducente, motori di ricerca per computer, smartphone, aspirapolvere robot, ecc., così come l’intelligenza artificiale chiamata AL, ChatGPT.
A questo punto, la necessità di determinare lo status giuridico dell’intelligenza artificiale e la sua responsabilità legale nel contesto di questo status è venuta alla ribalta. Quando si esaminano le discussioni in questo contesto, ci sono opinioni che i) l’intelligenza artificiale dovrebbe rimanere come beni/prodotti, ii) l’intelligenza artificiale dovrebbe essere dotata di personalità giuridica, o iii) l’intelligenza artificiale dovrebbe essere accettata come persona non umana, persona elettronica, umano artificiale.
Nel diritto europeo, è accettato come la visibilità prevalente che l’intelligenza artificiale è un” prodotto ” offerto agli utenti finali e ai produttori, e che il danno causato da detto prodotto dovrebbe essere valutato nell’ambito della responsabilità del produttore. La Direttiva 85/374 del Consiglio europeo sulla responsabilità del produttore ne è un esempio.
Nella legge turca, la legge sulla sicurezza dei prodotti e sui regolamenti tecnici n. 7223, entrata in vigore il 12 marzo 2021, definisce i beni immateriali e quindi i sistemi di intelligenza artificiale come “prodotti”. A causa del parallelismo tra la direttiva europea e l’UGTDK, sebbene vi sia un’opinione predominante che il produttore possa essere ritenuto responsabile dei danni causati dall’intelligenza artificiale, per il momento non esiste una regolamentazione specifica sulla responsabilità.
Inoltre, una relazione del Parlamento europeo ha pubblicato una serie di proposte e raccomandazioni in termini di concessione della personalità all’AIS. Il rapporto è il primo documento ufficiale a proporre lo status di personalità per un’entità IA e ha anche introdotto il concetto di “personalità elettronica”.
Nella valutazione dell’intelligenza artificiale in termini di responsabilità penale, poiché è fuori questione punire l’intelligenza artificiale o una macchina ad essa collegata, punire il produttore, il programmatore, il proprietario o l’utente per le loro azioni non sarebbe in linea con il principio della “responsabilità penale individuale”.
Per questo motivo, prima di tutto, la definizione dei reati e delle sanzioni che l’intelligenza artificiale può commettere dovrebbe essere chiaramente inclusa nella legge e, di conseguenza, il produttore, il programmatore, il proprietario o l’utente di algoritmi che possono danneggiare le persone con intento o negligenza dovrebbe essere preso come base per la punizione. In questo contesto, è importante garantire la trasparenza delle fonti di dati. Documentare chiaramente da dove provengono i dati, come vengono raccolti e quale pre-elaborazione passa renderà più facile identificare e ridurre possibili pregiudizi.
Di conseguenza, la mancanza di una regolamentazione parallela nell’ambito della legislazione nazionale e internazionale continua il dibattito sulla natura giuridica e la responsabilità dell’intelligenza artificiale. Come risultato dell’imprevedibile diffusione e sviluppo dell’intelligenza artificiale, è ovvio che la necessità di statuti legali è aumentata.