Η Ευρωπαϊκή Ένωση βρίσκεται μόλις ένα βήμα πριν από τον πρώτο Νόμο για την τεχνητή νοημοσύνη παγκοσμίως. Η ολομέλεια του Ευρωπαϊκού Κοινοβουλίου έδωσε το πράσινο φως και πλέον απομένει η υιοθέτηση από το Συμβούλιο.

«Το Βήμα» συνάντησε τον αρμόδιο εκπρόσωπο της Κομισιόν, Γιοχάνες Μπάρκε, ο οποίος εξηγεί πώς θα λειτουργεί ο Νόμος ΑΙ, καθώς επίσης και πώς μπορεί η τεχνητή νοημοσύνη να κάνει τη ζωή των πολιτών ευκολότερη και ασφαλέστερη. «Αυτό που θέλουμε στην Ευρώπη είναι να χρησιμοποιήσουμε την τεχνητή νοημοσύνη με αξιόπιστο τρόπο» επισημαίνει ο κ Μπάρκε, υπογραμμίζοντας ότι «θέλουμε να διασφαλίσουμε ότι οι άνθρωποι μπορούν να εμπιστεύονται την τεχνολογία, γιατί αν δεν την εμπιστεύονται, δεν θα τη χρησιμοποιήσουν. Αν δεν την χρησιμοποιήσουν, λοιπόν, θα χάσουμε αυτό το τρένο, γιατί είναι μια τεράστια δυνατότητα καινοτομίας».

Ακολουθεί η συνέντευξη με τον Γιοχάνες Μπάρκε- Εκπρόσωπος Ευρωπαϊκής Επιτροπής – Ψηφιακή οικονομία, έρευνα και καινοτομία

Τι σημαίνει η τεχνητή νοημοσύνη για τους Ευρωπαίους και τις ζωές τους; Είναι χρήσιμη; Είναι επικίνδυνη;

Είναι μια εύκολη ερώτηση με μια δύσκολη απάντηση. Αυτό που θέλουμε στην Ευρώπη είναι να χρησιμοποιήσουμε την τεχνητή νοημοσύνη με αξιόπιστο τρόπο. Βλέπουμε ότι υπάρχουν πολλές δυνατότητες. Γι’ αυτό έχουμε πει ότι θέλουμε να έχουμε αριστεία και εμπιστοσύνη στην τεχνητή νοημοσύνη. Αριστεία σημαίνει ότι θέλουμε να έχουμε καλούς ερευνητές. Θέλουμε να υποστηρίξουμε την AI. Δίνουμε πάνω από 1 δις. ευρώ από το Horizon Europe και το πρόγραμμα Digital Europe κάθε χρόνο για έρευνα στην τεχνητή νοημοσύνη. Και θέλουμε να τονώσουμε με 20 δισ. ευρώ. Αυτός είναι ο μακροπρόθεσμος στόχος για το τέλος της δεκαετίας, για τα κράτη μέλη και τη βιομηχανία. Επειδή θέλουμε να είμαστε καλοί στον τομέα. Αν δεν είσαι καλός, τότε θα είναι οι άλλοι. Αξιοποιούμε αυτές τις δυνατότητες, αλλά θέλουμε να έχουμε αξιόπιστη τεχνητή νοημοσύνη.

Θέλουμε να διασφαλίσουμε ότι οι άνθρωποι μπορούν να εμπιστεύονται την τεχνολογία, γιατί αν δεν την εμπιστεύονται, δεν θα τη χρησιμοποιήσουν. Αν δεν την χρησιμοποιήσουν, λοιπόν, θα χάσουμε αυτό το τρένο, γιατί είναι μια τεράστια δυνατότητα καινοτομίας. Η τεχνητή νοημοσύνη μπορεί να κάνει πολλά καλά πράγματα, αλλά πολλοί άνθρωποι ανησυχούν επίσης. Και αυτός είναι ο λόγος που έχουμε τον Νόμο για την Τεχνητή Νοημοσύνη (ΑΙ Act), σαν το πρώτο νομικό πλαίσιο στον κόσμο. Μιλάμε για περίπου 10 έως 15% των περιπτώσεων που είναι πραγματικά, ας πούμε, υψηλού κινδύνου και οι οποίες είναι πολύ σκληρές. Οι έλεγχοι και οι ισορροπίες και οι παράγοντες της αγοράς που διαθέτουν προϊόντα ή υπηρεσίες τεχνητής νοημοσύνης στην αγορά πρέπει να πληρούν ορισμένα κριτήρια, όπως αξιολόγηση συμμόρφωσης, να εφαρμόζουν συστήματα διαχείρισης ποιότητας και κινδύνου, καθώς και να καταχωρούν το σύστημα σε δημόσια βάση δεδομένων της ΕΕ.

Θα μπορούσατε να αναλύσετε τους κινδύνους που έχουν να κάνουν με την τεχνητή νοημοσύνη, για παράδειγμα, και πώς, ο Νόμος AI μπορεί να τους αντιμετωπίσει.

Αυτό που κάνει ο Νόμος AI είναι βασικά να δει τι είναι επιβλαβές, τι δεν είναι επιβλαβές ή τι είναι δυνητικά επικίνδυνο ή όχι. Ονομάζεται υψηλού κινδύνου ή χαμηλού κινδύνου, ή επίσης σε κίνδυνο που στην πραγματικότητα δεν είναι ανεκτός για την κοινωνία μας και κάποια πράγματα αποκλείονται. Εάν ξεκινήσουμε από τα χαμηλού κινδύνου, ας πούμε, θα έχουμε πράγματα όπως ένα chatbot όπου είναι απλώς σημαντικό οι άνθρωποι να γνωρίζουν ότι δεν μιλάνε μαζί σας αλλά με το chatbot, ώστε να μπορούν να το κάνουν, επίσης να ενημερώσετε για το τι μπορεί να περιμένει από το σύστημα. Αυτό όμως δεν είναι επιβλαβές. Στο τέλος της ημέρας, εάν η υπηρεσία είναι κακή, μπορεί να πάτε κάπου αλλού. Εάν η τράπεζά σας σάς προσφέρει ένα chatbot και πιστεύετε, ότι δεν προχωράει τότε ίσως να πάτε σε άλλη τράπεζα. Αυτό δεν είναι επικίνδυνο.

Έπειτα ερχόμαστε σε περιπτώσεις υψηλού κινδύνου όπου πρέπει να βρούμε περιπτώσεις που έχουν προκύψει σε παράρτημα της πράξης. Μπορούμε να πούμε εδώ ότι πρέπει να το δούμε πιο προσεκτικά, για παράδειγμα, επειδή πολλοί άνθρωποι ανησυχούν για αυτό. Στον κόσμο της εργασίας, ξέρετε, όπως εάν κάνετε αίτηση για μια θέση εργασίας και το βιογραφικό σας ελέγχεται από ένα σύστημα, εάν στη συνέχεια κάνετε συνέντευξη και ίσως στο διαδίκτυο και η συνέντευξη ελέγχεται κυρίως από τεχνητή νοημοσύνη ή είστε νευρικοί ή λέτε ψέματα σε τέτοια πράγματα, και τότε αυτά τα συστήματα πρέπει να πληρούν ορισμένα κριτήρια. Και έχουμε τα στοιχεία. Τα δεδομένα πρέπει να είναι ποιοτικά. Πρέπει πραγματικά να εντοπιστεί από πού προέρχονται τα δεδομένα. Πρέπει να είναι γνωστό πώς προκύπτουν οι αποφάσεις για τέτοια πράγματα. Αυτός είναι ένας μεγαλύτερος κατάλογος κριτηρίων που πρέπει να πληρούνται, προκειμένου ένα τέτοιο σύστημα να είναι νόμιμο στην αγορά στην Ευρώπη (μερικά από αυτά τα κριτήρια αναφέρονται παραπάνω).

Και δεν εξαρτάται αν αυτό προέρχεται από το ευρωπαϊκό σύστημα ή από το εξωτερικό. Εάν είναι στην ευρωπαϊκή αγορά, είναι απαραίτητο. Είναι λίγο σαν αυτοκίνητο, σωστά; Εάν προέρχεται από άλλη χώρα ή ήπειρο, πρέπει να πληροί τις απαιτήσεις. Και τότε έχουμε φυσικά κινδύνους που δεν θέλουμε να έχουμε. Όπως η τεχνητή νοημοσύνη χρησιμοποίησε περιπτώσεις που δεν θέλουμε να έχουμε στην Ευρώπη ως κοινωνία, για παράδειγμα, κοινωνική βαθμολόγηση, η οποία είναι απαγορευμένη. Όταν χρησιμοποιείτε πολύ την τεχνητή νοημοσύνη και μαθαίνετε ότι σας ξεγελά σε πράγματα, ξέρετε, ότι δεν είναι αυτό, αυτό είναι παράνομο βάσει της τεχνητής νοημοσύνης. Και τότε έχουμε έναν τομέα που ενδιαφέρει επίσης πολλούς ανθρώπους, ο οποίος είναι τα βιομετρικά δεδομένα.

Η εξ αποστάσεως βιομετρική αναγνώριση ατόμων, σε πραγματικό χρόνο από τις αρχές επιβολής του νόμου, η οποία γενικά απαγορεύεται, αλλά επιτρέπεται υπό ορισμένες εξαιρέσεις. Είναι ένας καθορισμένος κατάλογος εγκλημάτων σχεδόν κάθε εγκλήματος. Και τότε πρέπει να έχεις, ας πούμε επίσης ένα πρόσωπο και υπάρχει ένας νόμος που το ρυθμίζει αυτό. Τότε ο δικαστής πρέπει να δώσει άδεια. Έτσι, δεν είναι ότι μπορείτε απλώς να ελέγχετε μόνιμα τους πάντες παντού. Δεν μιλάμε για κάτι τέτοιο. Αλλά αν έχετε, ας πούμε, υποψία ακόμη και για τρομοκρατική επίθεση ή αναζητάτε ένα εξαφανισμένο παιδί ή έχετε έναν δολοφόνο που δραπετεύει από μια δολοφονία, μπορείτε, υπό αυτές τις συνθήκες, να λάβετε άδεια να χρησιμοποιήσετε βιομετρικά στοιχεία για την αναγνώριση ενός θύματος ή ενός δράστη από τις αρχές επιβολής του νόμου.

Σε σχέση με τα θεμελιώδη δικαιώματα;

Σήμερα έχουμε δύο οδηγίες ή δύο νομοθετήματα. Ο ένας είναι ο Γενικός Κανονισμός για την Προστασία Δεδομένων και ο άλλος είναι η επιβολή του νόμου. Και στα δύο υπάρχουν εξαιρέσεις. Αλλά ο Νόμος AI το διευκρινίζει αυτό. Και επίσης, ξέρετε, έχει ένα πρότυπο για ολόκληρη την ΕΕ. Αλλά για άλλη μια φορά, είναι μια εξαιρετική περίπτωση. Επειδή, τα θεμελιώδη δικαιώματά σας, για τα προσωπικά σας δικαιώματα ως άτομο, εννοώ, πρέπει κανονικά να δώσετε άδεια, για να χρησιμοποιηθούν τα προσωπικά σας δεδομένα γιατί αυτά είναι και τα δεδομένα που σας κάνουν αναγνωρίσιμο.

Αλλά σε αυτή την περίπτωση, δεν γίνεται γιατί υπάρχει αυτό το υπέρτερο δημόσιο συμφέρον να αποτραπεί μια τρομοκρατική επίθεση, για παράδειγμα, ή να βρεθεί ο δράστης ενός εγκλήματος. Αλλά για άλλη μια φορά, οι διασφαλίσεις είναι πολύ υψηλές για αυτό. Αυτή είναι λοιπόν μια εξαιρετική χρήση αυτής της τεχνολογίας.

Υπάρχει επίσης το πρώτο ευρωπαϊκό γραφείο τεχνητής νοημοσύνης. Πώς θα λειτουργήσει; αυτό;

Το γραφείο είναι, μια καινοτομία που προέρχεται από τον Νόμο AI. Μπορεί να έχει ρόλο, αφενός, να επιβλέπει την εφαρμογή του νόμου και, αφετέρου, να εργάζεται ειδικά για γενικούς σκοπούς. Ο γενικός σκοπός αναπτύσσεται βασικά χωρίς να γνωρίζουμε, για ποια περίπτωση θα χρησιμοποιηθεί τελικά. Συνολικά, 98 θέσεις θα διατεθούν για το Γραφείο AI.

Τι πρέπει να περιμένουμε στο μέλλον σχετικά με την τεχνητή νοημοσύνη;

Μετά την ψηφοφορία στο Κοινοβούλιο, θα υπάρξει έγκριση από το Συμβούλιο και στη συνέχεια η δημοσίευση στην Επίσημη Εφημερίδα της ΕΕ. Είναι πάντα το ίδιο για κάθε νόμο. Έχουμε κανόνες και εφαρμόζονται σε έξι μήνες. Άρα ήδη σε έξι μήνες απαγορεύονται όλα όσα ανέφερα νωρίτερα ότι θα απαγορευτούν. Οι διατάξεις σχετικά με τον Νόμο AI -γενικού σκοπού- θα ισχύουν μετά από 12 μήνες και όλες οι άλλες διατάξεις μετά από δύο χρόνια. Αλλά προφανώς έχει ήδη αρχίσει η δουλειά πάνω σε αυτό, δεν χάνεται χρόνος. Όλες οι διατάξεις του Νόμου AI θα τεθούν σε ισχύ μετά από δύο χρόνια. Από τη μία πλευρά, θα έχουμε το Σύμφωνο AI, το οποίο είναι στην πραγματικότητα πολύ σημαντικό.

Πρέπει να περιμένουμε, ίσως να προσκαλέσουμε τις εταιρείες να εγγραφούν στις διατάξεις του Συμφώνου για την τεχνητή νοημοσύνη ήδη προτού τεθεί πραγματικά νομικά εφαρμοστέα. Και να πούμε, ετοιμαζόμαστε νωρίτερα από ό,τι χρειαζόμαστε γιατί μας βοηθάει επίσης να συμμορφωθούμε. Έχουμε γύρω στις 400 εταιρείες που έχουν δείξει ενδιαφέρον ή έχουν εγγραφεί, ενώ εν συνεχεία έχουμε και τη δουλειά σε διεθνές επίπεδο.