Κοινή πορεία προς έναν παγκόσμιο Κώδικα Δεοντολογίας για την Τεχνητή Νοημοσύνη προσπαθούν να χαράξουν οι μεγαλύτερες οικονομίες του κόσμου. Οι ηγέτες των χωρών της G7 δείχνουν να αντιλαμβάνονται το διακύβευμα από την ενδεχόμενη άναρχη ανάπτυξη του Artificial Intelligence και επιχειρούν να στρώσουν τον δρόμο για ένα πιο ελεγχόμενο περιβάλλον.
Οι αξιωματούχοι της G7 κατέληξαν σε συμφωνία για την ανάπτυξη ενός διεθνούς εθελοντικού Κώδικα Δεοντολογίας για την τεχνητή νοημοσύνη, ο οποίος θα παρέχει κατευθυντήριες γραμμές για τον έλεγχο της χρήση της τεχνολογίας AI.
Οι αξιωματούχοι της G7 θα συνεδριάσουν εκ νέου στο Κιότο της Ιαπωνίας στις αρχές Οκτωβρίου προκειμένου να συζητήσουν περαιτέρω και να οριστικοποιήσουν τον Κώδικα Δεοντολογίας. Στη συνέχεια, οι αρμόδιοι Υπουργοί των χωρών της G7 θα πραγματοποιήσουν διαδικτυακή συνάντηση είτε τον Νοέμβριο είτε τον Δεκέμβριο για να ολοκληρώσουν την όλη διαδικασία.
Ο κώδικας θα περιλαμβάνει συγκεκριμένες αρχές για την επίβλεψη προηγμένων μορφών τεχνητής νοημοσύνης, όπως η γενετική τεχνητή νοημοσύνη, ενώ θα απαιτεί από τις εταιρείες να αναλάβουν δεσμεύσεις για την αντιμετώπιση πιθανών κοινωνικών βλαβών, που προκύπτουν από τα συστήματα ΑΙ.
Επιπλέον, ο κώδικας θα δώσει έμφαση στην εφαρμογή ισχυρών ελέγχων κυβερνοασφάλειας για τη διασφάλιση της τεχνολογίας AI σε όλη την πορεία ανάπτυξη και χρήση της. Για να μετριαστεί η πιθανή κακή χρήση του ΑΙ, ο κώδικας δεοντολογίας θα θεσπίσει συστήματα διαχείρισης κινδύνου. Αυτά τα συστήματα θα βοηθήσουν στη ρύθμιση της τεχνολογίας και στην πρόληψη τυχόν κακόβουλων ή ανήθικων πρακτικών.
Μεγάλη σημασία
«Αναγνωρίζουμε την ανάγκη να διαχειριστούμε τους νέους κινδύνους και τις προκλήσεις για τα άτομα, την κοινωνία και τις δημοκρατικές αξίες και να αξιοποιήσουμε τα οφέλη και τις ευκαιρίες που προσφέρουν τα προηγμένα συστήματα τεχνητής νοημοσύνης» αναφέρει η ομάδα της G7 σε κοινή της δήλωση. Και προσθέτει: «Δεσμευόμαστε να αναπτύξουμε κατευθυντήριες αρχές και έναν διεθνή κώδικα δεοντολογίας για τους οργανισμούς. Ο στόχος είναι να καθοριστούν εθελοντικοί κανόνες, που θα είναι ανοιχτοί σε όλες τις χώρες, οι οποίες συμμερίζονται τις ίδιες αξίες».
Η κίνηση της G7 να θέσει στο μικροσκόπιό της τις προκλήσεις που δημιουργεί η τεχνητή νοημοσύνη στις δημοκρατικές αξίες, τα άτομα και την κοινωνία έρχεται σε μια χρονική συγκυρία που πληθαίνουν παγκοσμίως οι ανησυχίες για τη χρήση της τεχνητής νοημοσύνης.
Ήδη η ΕΕ χαράσσει τη γραμμή της δικής της στρατηγικής για το ΑΙ, στη βάση της πρότασης της Ευρωπαϊκής Επιτροπής για ανάπτυξη εθελοντικών προστατευτικών μέτρων για την τεχνητή νοημοσύνη. Για την ακρίβεια η Ένωση επιδιώκει να ολοκληρώσει τη δική της νομοθεσία για το ΑΙ μέχρι το τέλος του 2023, ενώ και οι Ηνωμένες Πολιτείες προωθούν τις δικές τους εθελοντικές δεσμεύσεις που ανακοινώθηκαν τον Ιούλιο.
Ο ρόλος της ΕΕ
Η ΕΕ θέλει να είναι η πρώτη στον κόσμο που θα αποκτήσει πλήρες και υποχρεωτικό νομοθετικό πλαίσιο, ώστε να περιοριστούν οι κίνδυνοι της τεχνητής νοημοσύνης, όμως αυτό δεν πρόκειται να τεθεί σε εφαρμογή πριν από τα τέλη του 2025.
Η Κίνα έχει επίσης κάποια σχέδια για την εφαρμογή ενός ρυθμιστικού πλαισίου, με το οποίο θα επιτηρείται η ασφάλεια των εργαλείων τεχνητής νοημοσύνης, ενώ στην Ουάσινγκτον, παρά τις πολλές συζητήσεις, δεν υπάρχει προς το παρόν στο τραπέζι κανένα υποχρεωτικό πλαίσιο.
Πάντως, ΕΕ και ΗΠΑ έχουν αποφασίσει να συνεργαστούν σε ό,τι αφορά στην τεχνητή νοημοσύνη. Άλλωστε το ΑΙ ήταν ένα από τα βασικότερα κατά τη σύνοδο του Συμβουλίου Εμπορίου και Τεχνολογίας (CCT) που διεξήχθη στην πόλη Λουλέο της βόρειας Σουηδίας, στο οποίο μετέχουν οι ΗΠΑ και η ΕΕ.
«Η ΕΕ και οι ΗΠΑ συμμερίζονται την κοινή άποψη ότι οι τεχνολογίες τεχνητής νοημοσύνης προσφέρουν μεγάλες ευκαιρίες αλλά ταυτόχρονα παρουσιάζουν και κινδύνους για την κοινωνία μας», ανέφεραν στα τέλη Μαίου οι δύο πλευρές στο τελικό ανακοινωθέν τους κατά τη σύνοδο του CCT.