ΑΝΑΖΗΤΗΣΗ

Νέα

Το μεγάλο στοίχημα της Ε.Ε με την τεχνητή νοημοσύνη: Μια πρώτη προσέγγιση

13 Ιουλίου 2021
Συνεργάτης Δικηγόρος:

Στις 21 Απριλίου 2021 η Ευρωπαϊκή Επιτροπή δημοσίευσε την πολυαναμενόμενη πρόταση του Κανονισμού του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου της Ευρώπης ως προς τη θέσπιση εναρμονισμένων κανόνων για την τεχνητή νοημοσύνη. Η νομική βάση της πρότασης του Κανονισμού είναι τα άρθρα 26 και 114 της Συνθήκης για τη Λειτουργία της Ευρωπαϊκής Ένωσης σύμφωνα με τα οποία το Ευρωπαϊκό Κοινοβούλιο και το Συμβούλιο δύνανται να εκδίδουν μέτρα που έχουν ως αντικείμενο την εγκαθίδρυση και τη λειτουργία της εσωτερικής αγοράς της Ε.Ε.

Στόχος του Κανονισμού, αφού λάβει την τελική του μορφή και τεθεί σε εφαρμογή, είναι η θέσπιση νομοθετικού πλαισίου που θα εναρμονίζει τους κανόνες για τη διάθεση στην αγορά ή τη χρήση συστημάτων τεχνητής νοημοσύνης στην Ε.Ε., καθώς και τη θέσπιση ορισμένων απαγορεύσεων σε συγκεκριμένες πρακτικές και χρήσεις συστημάτων τεχνητής νοημοσύνης. Ταυτόχρονα, θεσπίζει τα «υψηλού κινδύνου» συστήματα τεχνητής νοημοσύνης ως προς τα οποία θέτει συγκεκριμένες προϋποθέσεις λειτουργίας.

Το σημαντικό χαρακτηριστικό της πρότασης είναι πως υιοθετείται η ανθρωποκεντρική προσέγγιση των ζητημάτων που άπτονται της διάθεσης στην αγορά και της χρήσης της τεχνητής νοημοσύνης, θέτοντας ως βάση της πρότασης την προστασία των θεμελιωδών ανθρωπίνων δικαιωμάτων. Στο πλαίσιο αυτό η πρόταση του Κανονισμού χωρίζει τα συστήματα τεχνητής νοημοσύνης σε τρεις κατηγορίες, ήτοι σε αυτά που απαγορεύονται, στα συστήματα που θεωρούνται υψηλού ρίσκου και σε αυτά που θεωρούνται χαμηλού ρίσκου.

Ειδικότερα, απαγορεύεται η διάθεση στην αγορά και η χρήση συστημάτων τεχνητής νοημοσύνης τα οποία: (α) αναπτύσσουν υποσυνείδητες τεχνικές για τη στρέβλωση της ανθρώπινης συμπεριφοράς, (β) εκμεταλλεύονται ευπάθειες λόγω ηλικίας, σωματικής ή διανοητικής αναπηρίας, (γ) αναπτύσσονται από δημόσιες αρχές για την αξιολόγηση ή την ταξινόμηση της αξιοπιστίας ενός ατόμου (social scoring), (δ) χρησιμοποιoύν απομακρυσμένη βιομετρική ταυτοποίηση σε πραγματικό χρόνο σε δημόσια προσβάσιμα μέρη, εκτός εάν και στο βαθμό που η χρήση αυτή είναι απολύτως απαραίτητη και για συγκεκριμένους σκοπούς ασφαλείας όπως η αναζήτηση συγκεκριμένων πιθανών θυμάτων εγκλήματος (ειδικότερα εάν τα πιθανά θύματα είναι αγνοούμενα παιδιά), η πρόληψη συγκεκριμένης, ουσιαστικής και επικείμενης απειλής για τη ζωή ή τη φυσική ασφάλεια φυσικών προσώπων ή τρομοκρατικής επίθεσης και η ανίχνευση, ο εντοπισμός, η αναγνώριση ή δίωξη ενός δράστη ή υπόπτου εγκλήματος.

Ως προς τα συστήματα υψηλού ρίσκου, προβλέπεται ότι ένα σύστημα τεχνητής νοημοσύνης θεωρείται υψηλού κινδύνου εάν πληροί τις δύο ακόλουθες προϋποθέσεις: α. το σύστημα τεχνητής νοημοσύνης προορίζεται να χρησιμοποιηθεί ως στοιχείο ασφαλείας ενός προϊόντος ή είναι το ίδιο προϊόν ή β. απαιτείται να υποβληθεί σε αξιολόγηση συμμόρφωσης τρίτου μέρους προτού διατεθεί στην αγορά. Η πρόταση προσδιορίζει δύο κύριες κατηγορίες συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου:

- Τα συστήματα τεχνητής νοημοσύνης που προορίζονται να χρησιμοποιηθούν ως συστατικά ασφαλείας προϊόντων που υπόκεινται σε εκ των προτέρων αξιολόγηση συμμόρφωσης τρίτων.
- Και σε άλλα αυτόνομα συστήματα τεχνητής νοημοσύνης με επιπτώσεις κυρίως στα θεμελιώδη δικαιώματα, όπως τα συστήματα επιβολής του νόμου, τα συστήματα διαχείρισης της μετανάστευσης, του ασύλου κι ελέγχου των συνόρων, τα συστήματα που χρησιμοποιούνται στην απονομή της δικαιοσύνης και τη διαχείριση των δημοκρατικών διαδικασιών.

Εφ’ όσον κάποιο σύστημα τεχνητής νοημοσύνης ταυτοποιηθεί ως υψηλού κινδύνου, υφίστανται αυξημένες απαιτήσεις ως προς τη διαφάνεια της λειτουργίας του. Ειδικότερα, προβλέπεται ο διαρκής έλεγχος μέσω συστημάτων διαχείρισης κινδύνων, ο έλεγχος της ποιότητας των δεδομένων εκπαίδευσης, η ύπαρξη τεχνικού εγχειριδίου, η ανθρώπινη εποπτεία, η ιχνηλασιμότητα μέσω logs, η ασφάλεια και η στιβαρότητα στον κυβερνοχώρο.

Τα ανωτέρω ισχύουν τόσο για τους για τους κατασκευαστές όσο και για τους παρόχους των ανωτέρω συστημάτων. Ως προς τους εισαγωγείς αυτών θα πρέπει να διασφαλίζουν ότι: (α) ο πάροχος του συστήματος έχει πραγματοποιήσει την κατάλληλη αξιολόγηση συμμόρφωσης, (β) ο πάροχος έχει ετοιμάσει τη σχετική τεχνική τεκμηρίωση και (γ) το σύστημα φέρει την απαιτούμενη σήμανση συμμόρφωσης και συνοδεύεται από την απαιτούμενη τεκμηρίωση και οδηγίες χρήσης. Tα κράτη μέλη θα πρέπει να δημιουργήσουν ή να ορίσουν μια εθνική αρχή που θα πραγματοποιεί τις απαραίτητες διαδικασίες για την αξιολόγηση, τον ορισμό και την κοινοποίηση των φορέων αξιολόγησης της συμμόρφωσης, καθώς και την παρακολούθηση των υποχρεώσεων συμμόρφωσης.

Ως προς τα χαμηλού κινδύνου συστήματα, όπως τα συστήματα που προορίζονται να αλληλεπιδράσουν με φυσικά πρόσωπα, θα πρέπει να διασφαλίζεται από τον πάροχο ότι έχουν σχεδιαστεί με τέτοιο τρόπο ώστε τα άτομα να ενημερώνονται ότι αλληλεπιδρούν με ένα σύστημα τεχνητής νοημοσύνης, εκτός εάν είναι προφανές από τις περιστάσεις. Απαιτείται επίσης διαφάνεια προς τους χρήστες σε περιπτώσεις όπου υπάρχει σύστημα αναγνώρισης συναισθημάτων ή σύστημα βιομετρικής κατηγοριοποίησης. Η ανωτέρω υποχρέωση υφίσταται και στις περιπτώσεις όπου μπορεί να υπάρχουν απεικονίσεις ανθρώπων, αντικειμένων ή άλλων οντοτήτων που θα μπορούσαν να χαρακτηριστούν ως «deep fakes».

Η πρόταση του Κανονισμού είναι ένα πολύ σημαντικό πρώτο βήμα στην προσπάθεια διασφάλισης ότι η τεχνητή νοημοσύνη θα αποτελέσει εργαλείο υποβοήθησης της ανθρώπινης δραστηριότητας και όχι ενδεχομένως όπλο εις βάρος του ανθρώπου. Εντούτοις, υφίστανται και επιφυλάξεις ως προς την ευρεία ρύθμιση της τεχνητής νοημοσύνης, καθώς υφίστανται φόβοι ότι θα λειτουργήσει ανασταλτικά για την τεχνολογική καινοτομία στο περιβάλλον της Ε.Ε. σε αντίθεση με τις Η.Π.Α. και την Κίνα, οι οποίες κερδίζουν τον αγώνα της καινοτομίας χωρίς, όμως, να θέτουν τα όρια παρέμβασης των τεχνολογικών δυνατοτήτων στα ανθρώπινα δικαιώματα. Σε κάθε περίπτωση, η Ε.Ε. για ακόμα μία φορά πρωτοπορεί, επιχειρώντας να διασφαλίσει την προστασία των θεμελιωδών ανθρωπίνων δικαιωμάτων κατά την 4η Βιομηχανική Επανάσταση, ενώ μένει να διαπιστώσουμε εάν τελικά ο Κανονισμός θα λειτουργήσει σε βάρος της καινοτομίας κι εάν θα επηρεάσει έτερες έννομες τάξεις ως προς τη ρητή θέσπιση κανόνων ως προς τη διάθεση στην αγορά και τη χρήση συστημάτων τεχνητής νοημοσύνης.