Η Ευρωπαϊκή Ένωση πραγματοποίησε ένα σημαντικό βήμα για την εποπτεία των συστημάτων τεχνητής νοημοσύνης (Artificial Intelligence – AI), με τη δημοσίευση του Κανονισμού (ΕΕ) 2024/1689 για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την AI (EU AI Act), στις 12 Ιουλίου 2024, η οποία τίθεται σε άμεση εφαρμογή σε όλα τα κράτη μέλη. Η EE, μέσω της EU AI Act, έχει ως βασικό στόχο τον έλεγχο της ασφάλειας και της αξιοπιστίας των συστημάτων τεχνητής νοημοσύνης τα οποία λειτουργούν εντός της επικράτειάς της (ανεξάρτητα από τη χώρα ανάπτυξής τους), προστατεύοντας, παράλληλα, τα θεμελιώδη δικαιώματα των πολιτών της.
Με την εφαρμογή της Πράξης, οι επιχειρήσεις θα πρέπει να εναρμονιστούν με μια σειρά από απαιτήσεις και πρότυπα, εξασφαλίζοντας ότι τα συστήματα AI τα οποία αναπτύσσουν ή λειτουργούν, είναι ασφαλή και δίκαια για τους χρήστες.
Σύμφωνα με την EU AI Act, ένα σύστημα AI ορίζεται ως ένα λογισμικό που αναπτύσσεται με ορισμένες τεχνικές και προσεγγίσεις και μπορεί, για ένα δεδομένο σύνολο καθορισμένων στόχων, με έναν – έστω και ελάχιστο – βαθμό αυτονομίας, να παράγει αποτελέσματα όπως προτάσεις, εκτιμήσεις, προβλέψεις, αποφάσεις ή άλλες ενέργειες που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλοεπιδρά.
Είναι σαφές ότι ο ορισμός των συστημάτων τεχνητής νοημοσύνης καλύπτει ένα ευρύ φάσμα τεχνικών και προσεγγίσεων στον χώρο της τεχνολογίας αυτής, όπως, η μηχανική μάθηση (machine learning), η βαθιά μάθηση (deep learning), η επεξεργασία φυσικής γλώσσας (natural language processing) και τα συστήματα AI γενικού σκοπού (general purpose ΑΙ systems).
Διαβάθμιση συστημάτων AI με βάση τον κίνδυνο, και εποπτεία
Για την προώθηση της καινοτομίας, παράλληλα με την εμπιστοσύνη στα συστήματα ΑΙ, η ΕΕ διαβαθμίζει τα συστήματα αυτά σε επίπεδα κινδύνου με βάση τον δυνητικό αντίκτυπο στα δικαιώματα και τις ελευθερίες των ανθρώπων, εισάγοντας διαφορετικές απαιτήσεις για όλους τους εμπλεκόμενους φορείς, όπως όσοι αναπτύσσουν συστήματα τεχνητής νοημοσύνης και όσοι χρησιμοποιούν τέτοια συστήματα.
Διαφορετικές απαιτήσεις και χρονικά πλαίσια εναρμόνισης, ορίζονται για τις παρακάτω κατηγορίες συστημάτων:
- Μη αποδεκτού κινδύνου συστήματα AI: Περιλαμβάνουν, για παράδειγμα, συστήματα τα οποία χρησιμοποιούνται για την αξιολόγηση ή την ταξινόμηση φυσικών προσώπων με βάση την κοινωνική συμπεριφορά ή την προσωπικότητά τους, ή συστήματα τα οποία εκμεταλλεύονται συγκεκριμένα χαρακτηριστικά ομάδων φυσικών προσώπων. H χρήση των συστημάτων αυτών είναι απαγορευμένη. Το χρονικό πλαίσιο απαγορεύσεων για τα συστήματα μη αποδεκτού κινδύνου έχει οριστεί στους 6 μήνες μετά την έναρξη ισχύος της Πράξης.
- Υψηλού κινδύνου συστήματα ΑΙ: Για τα συστήματα αυτά προβλέπονται πολλαπλές απαιτήσεις πριν από την έναρξη χρήσης τους, και σε συνεχή βάση. Οι βασικές τους απαιτήσεις είναι οι ακόλουθες:
- Εισαγωγή συστήματος διαχείρισης κινδύνων, το οποίο θα χρησιμοποιείται καθ’ όλη τη διάρκεια του κύκλου ζωής του συστήματος
- Διακυβέρνηση και έλεγχος ποιότητας δεδομένων για την εκπαίδευση, επικύρωση και λειτουργία του συστήματος
- Αξιολόγηση ακρίβειας, επάρκειας και αξιοπιστίας των αποτελεσμάτων
- Ύπαρξη διαφάνειας, πληροφόρησης, ασφάλειας και ακεραιότητας των χρηστών
- Ανθρώπινη εποπτεία για τον έλεγχο λειτουργίας του συστήματος
- Ολοκληρωμένη τεχνική τεκμηρίωση
Η αξιολόγηση των συστημάτων υψηλού κινδύνου αναμένεται 24-36 μήνες μετά την έναρξη ισχύος της Πράξης, ανάλογα με την κατηγορία του συστήματος.
- Χαμηλού κινδύνου συστήματα AI: Περιλαμβάνουν συστήματα που προορίζονται για άμεση αλληλεπίδραση με φυσικά πρόσωπα και υπόκεινται κυρίως σε απαιτήσεις διαφάνειας. Οι απαιτήσεις για τα συστήματα χαμηλού κινδύνου, θα τεθούν σε εφαρμογή 24 μήνες μετά την έναρξη ισχύος της πράξης.
- Συστήματα AI γενικού σκοπού: Αφορούν συστήματα τα οποία είναι ικανά να εκτελούν ένα ευρύ φάσμα εργασιών και δεν είναι περιορισμένα σε μία συγκεκριμένη λειτουργία ή εφαρμογή. Οι απαιτήσεις για τα συστήματα αυτά, διαφοροποιούνται με βάση τον συστημικό τους κίνδυνο, ενώ αναμένεται να τεθούν σε εφαρμογή 12 μήνες μετά την έναρξη ισχύος της Πράξης.
Η EU AI Act προβλέπει τη σύσταση ειδικών εποπτικών αρχών σε κάθε κράτος μέλος, οι οποίες θα έχουν την ευθύνη να ελέγχουν τη συμμόρφωση των επιχειρήσεων με τις απαιτήσεις της, καθώς και να επιβάλλουν τυχόν κυρώσεις σε περιπτώσεις αποκλίσεων. Ενδεικτικά, οι ποινές μη συμμόρφωσης ενός οργανισμού, σε περίπτωση που θέτει σε λειτουργία συστήματα AI μη αποδεκτού κινδύνου, δύνανται να φτάσουν μέχρι και το 7% του κύκλου εργασιών του.
Τι προτείνει η ΕΥ στις επιχειρήσεις
Η EY αναγνωρίζει τη σημασία της εναρμόνισης με τις απαιτήσεις της EU AI Act και υποστηρίζει τις επιχειρήσεις, ώστε όχι μόνο να προσαρμοστούν στις νέες απαιτήσεις, αλλά και να δημιουργήσουν αξία μέσω των πλεονεκτημάτων που προσφέρει ένα ευρύτερο πλαίσιο υπεύθυνης χρήσης της τεχνητής νοημοσύνης (Responsible AI framework).
Καθώς η ΑΙ ήδη βρίσκεται στη ζωή μας και αναμένεται ότι θα μετασχηματίσει την καθημερινή εργασία και το είδος – αλλά και τον τρόπο παροχής – των υπηρεσιών κάθε επιχείρησης, η ΕΥ έχει ξεκινήσει τα τελευταία χρόνια μια συγκροτημένη προσπάθεια γύρω από την τεχνητή νοημοσύνη, σε παγκόσμιο επίπεδο, καθώς και στη χώρα μας.
Η ΕΥ προτείνει στις επιχειρήσεις να προσεγγίσουν το ζήτημα της αξιόπιστης, επικυρωμένης και υπεύθυνης χρήσης της AI, μέσα από ένα σχέδιο δράσεων που αποτελείται από τρεις κύριες φάσεις:
- Τη δημιουργία πλαισίων διαχείρισης και διακυβέρνησης των συστημάτων AI, τα οποία περιλαμβάνουν:
- την καταγραφή των συστημάτων AI, τον ορισμό της σημαντικότητας και της διαβάθμισης κινδύνου με βάση την EU AI Act
- τον καθορισμό προτύπων, διαδικασιών, ρόλων και αρμοδιοτήτων για την ανάπτυξη, επικύρωση και λειτουργία των συστημάτων AI
- τη δημιουργία νέου πλαισίου για την αξιολόγηση των απαιτήσεων για την υπεύθυνη χρήση των συστημάτων AI, σε εναρμόνιση με την EU AI Act.
- Τη λειτουργική ενσωμάτωση των πλαισίων για τα συστήματα AI, η οποία περιλαμβάνει:
- τη λειτουργία πλαισίων διαχείρισης και διακυβέρνησης της τεχνητής νοημοσύνης σε όλα τα επίπεδα (άνθρωποι, αξιολόγηση μέσω προτύπων και διαδικασιών)
- την αξιολόγηση των συστημάτων AI στις διάφορες διαστάσεις της τεχνητής νοημοσύνης, για την υπεύθυνη χρήση τους
- τον καταρτισμό ενός πλάνου δράσεων για την αντιμετώπιση ελλείψεων που ενδεχομένως εντοπίζονται, ως αποτέλεσμα της αξιολόγησης για την υπεύθυνη χρήση των συστημάτων AI
- Την επέκταση των πλαισίων και των αρχών λειτουργίας σε όλο το εύρος του οργανισμού και τη συνεχή παρακολούθηση και αξιολόγηση, και μέσω τεχνολογικών λύσεων, για την εφαρμογή των πλαισίων και τη δημιουργία αναφορών.
Η βασική προσέγγιση της ΕΥ για την αξιολόγηση της υπεύθυνης χρήσης των συστημάτων AI είναι ο Δείκτης EY.ai Confidence Index (Δείκτης Εμπιστοσύνης), ο οποίος αποτελεί μέρος ενός ευρύτερου οικοσυστήματος εφαρμογών με βάση την τεχνογνωσία της ΕΥ αναφορικά με την προηγμένη ανάπτυξη και υπεύθυνη χρήση της AI.
Ο Δείκτης Εμπιστοσύνης αξιολογεί οκτώ κύριες διαστάσεις που τεκμηριώνουν την υπεύθυνη χρήση της τεχνητής νοημοσύνης: τη διαφάνεια, την αξιοπιστία και μεροληψία, την ευθύνη, την επεξηγησιμότητα, την αξιοπιστία, την ασφάλεια, τη βιωσιμότητα, και την προστασία προσωπικών δεδομένων.
Η προσέγγιση μέσω του Δείκτη Εμπιστοσύνης, δημιουργεί τα ακόλουθα πλεονεκτήματα για τις επιχειρήσεις:
- Βασίζεται σε μία ολιστική αξιολόγηση, πλήρως εναρμονισμένη με την EU AI Act, για την εμπιστοσύνη στα δεδομένα, στις τεχνικές ανάπτυξης και εφαρμογής και στις διαδικασίες που συνθέτουν τα συστήματα AI.
- Συνδυάζει ποσοτικές μετρήσεις με ποιοτικές αξιολογήσεις, επιτρέποντας στους χρήστες να εκτιμήσουν τον επιχειρηματικό αντίκτυπο και το επίπεδο εμπιστοσύνης σε κάθε μία από τις οκτώ διαστάσεις, αλλά και συνολικά.
- Παράγει αποτελέσματα αξιολόγησης τα οποία είναι εξηγήσιμα, καθώς επιτρέπει να γίνουν κατανοητές οι ενδεχόμενες ελλείψεις και μέσω των ολοκληρωμένων αναφορών της λύσης.
- Είναι προσαρμόσιμη, γιατί μπορεί να εντάξει το πλαίσιο και τις ιδιαιτερότητες του κάθε συστήματος AI, για παράδειγμα με βάση τον τομέα δραστηριότητας των επιχειρήσεων.
- Δημιουργεί ένα επαρκές επίπεδο επεξηγησιμότητας, προκειμένου να υπόκειται, ανά πάσα χρονική στιγμή, σε έλεγχο.