Ιωσήφ Σηφάκης: «Η επανάσταση της Τεχνητής Νοημοσύνης έχει μόλις αρχίσει»

Ο Αγγελος Αλεξόπουλος συνομιλεί με τον Ιωσήφ Σηφάκη, κορυφαίο επιστήμονα των υπολογιστών, ο οποίος εξηγεί ποια πρέπει να είναι η στάση του ανθρώπου απέναντι στην Τεχνητή Νοημοσύνη. Πού μπορούμε να την εμπιστευτούμε και πού πρέπει να τη «φοβόμαστε»;

Ιωσήφ Σηφάκης: «Η επανάσταση της Τεχνητής Νοημοσύνης έχει μόλις αρχίσει»

Να χρησιμοποιούμε την Τεχνητή Νοημοσύνη μόνο στον βαθμό που μπορούμε να επαληθεύσουμε την εγκυρότητα των απαντήσεων» λέει στο «Βήμα» ο Ιωσήφ Σηφάκης, καθηγητής στο Πανεπιστήμιο της Γκρενόμπλ και από τις πλέον εξέχουσες μορφές της ευρωπαϊκής επιστήμης των υπολογιστών, ο οποίος έχει συνδέσει το όνομά του με την ανάπτυξη μεθόδων που επιτρέπουν τον έλεγχο του αν πολύπλοκα υπολογιστικά συστήματα λειτουργούν σωστά, με ασφάλεια και αξιοπιστία· μια συμβολή που του χάρισε το 2007 το A.M. Turing Award, την κορυφαία διεθνή διάκριση στην Πληροφορική.

Ο κ. Σηφάκης θα είναι ο κεντρικός ομιλητής δημόσιας εκδήλωσης για τα 10 χρόνια από την ίδρυση της διαΝΕΟσις, που θα πραγματοποιηθεί την ερχόμενη Τετάρτη (11 Μαρτίου) στο Κέντρο Πολιτισμού Σταύρος Νιάρχος με τίτλο «Μπροστά στην πρόκληση της Τεχνητής Νοημοσύνης». Στην εκδήλωση θα παρουσιαστούν και τα ευρήματα της νέας δημοσκοπικής έρευνας της διαΝΕΟσις για το «Τι πιστεύουν οι Ελληνες για την Τεχνητή Νοημοσύνη», η οποία φιλοδοξεί να αποτυπώσει τις στάσεις της ελληνικής κοινωνίας απέναντι στις δυνατότητες, τις ανησυχίες και τα διλήμματα που γεννά η νέα τεχνολογία.

Αν ζητούσαμε από την Τεχνητή Νοημοσύνη (ΤΝ) να μας αφηγηθεί την ίδια της την ιστορία, ποια θα ήταν τα κομβικά «ρήγματα» που τη διαμόρφωσαν; Και ποια τελικά επικράτησαν;

«Η ΤΝ γεννήθηκε 1956 με στόχο τη μελέτη και την ανάπτυξη συστημάτων που μιμούνται ανθρώπινες γνωστικές ικανότητες, ακολουθώντας δύο διαφορετικές προσεγγίσεις: η μία “συμβολική”, βασισμένη στη λογική, η άλλη εμπειρική, βασισμένη στη χρήση τεχνητών νευρωνικών δικτύων που μιμούνται τα νευρωνικά δίκτυα του εγκεφάλου μας. Αυτή η τελευταία προσέγγιση επέτρεψε την ανάπτυξη μεθόδων μηχανικής μάθησης και τελικά επικράτησε. Στις αρχές του αιώνα, οι πρώτες εντυπωσιακές εφαρμογές ήταν η ανάλυση και σύνθεση εικόνων. Ακολούθησε ένα σημαντικό βήμα, η χρήση των Μεγάλων Γλωσσικών Μοντέλων (Large Language Models), που επιτρέπει την επεξεργασία φυσικών γλωσσών και τη χρήση της ΤΝ από το ευρύ κοινό. Παρά τα εντυπωσιακά αποτελέσματα, η TN βρίσκεται ακόμα στα σπάργανα. Σήμερα έχουμε κυρίως “βοηθούς”, όπως το ChatGPT, που παρέχουν παντοειδείς υπηρεσίες αλληλοεπιδρώντας με χρήστες. Ωστόσο, πολλές επιστημονικές και βιομηχανικές εφαρμογές απαιτούν εξειδικευμένα ευφυή συστήματα με χαρακτηριστικά αξιοπιστίας και αυτονομίας, όπως αυτόνομη οδήγηση, που δεν είναι εφικτά σήμερα. Η επιστημονική και βιομηχανική επανάσταση της ΤΝ έχει ακόμη μόλις αρχίσει».

Εχετε διατυπώσει τη θέση ότι η σημερινή ΤΝ λειτουργεί ως «μαύρο κουτί». Πού ακριβώς εντοπίζετε τη ρήξη σε σχέση με την κλασική παράδοση των υπολογιστικών/μηχανικών συστημάτων;

«Τα συστήματα TN που χρησιμοποιούν μηχανική μάθηση διαφέρουν από τα παραδοσιακά που προγραμματίζονται και εκτελούν εντολές. Είναι εξαιρετικά αποτελεσματικά στη δημιουργία εμπειρικής γνώσης από αισθητηριακά ή γλωσσικά δεδομένα. Μαθαίνουν εμπειρικά, μέσα από παραδείγματα όπως ακριβώς ένα μικρό παιδί. Πλην όμως, σε αντίθεση με τα παραδοσιακά συστήματα, δεν μπορούμε να εξηγήσουμε τη λειτουργία τους και αυτό αντικατοπτρίζει ο όρος “μαύρο κουτί”».

Η λεγόμενη «μη εξηγησιμότητα» των συστημάτων ΤΝ και ειδικότερα των Μεγάλων Γλωσσικών Μοντέλων παρουσιάζεται συχνά ως πρόβλημα διαφάνειας. Εσείς τη συνδέετε με κάτι πιο θεμελιώδες: αξιοπιστία και ασφάλεια. Ποια είναι η αλυσίδα που ενώνει αυτά τα τρία;

«Η μη εξηγησιμότητα σημαίνει πρακτικά την έλλειψη μαθηματικών μοντέλων της συμπεριφοράς αυτών των συστημάτων, πράγμα που αποκλείει την εφαρμογή της επιστημονικής μεθόδου για να εγγυηθούμε την αξιοπιστία τους και, ιδίως, στην ασφάλειά τους. Οπως όταν σχεδιάζουμε μια γέφυρα, οι θεωρίες της μηχανικής μάς επιτρέπουν να εγγυηθούμε τη στατικότητά της. Η πιστοποίηση των συστημάτων TN γίνεται μόνο εμπειρικά, πράγμα που δεν επιτρέπει τη χρήση τους σε κρίσιμες εφαρμογές».

Η Τεχνητή Γενική Νοημοσύνη (AGI) παρουσιάζεται στις μέρες μας ως το μεγάλο «φάντασμα» ή «έπαθλο» ενός όχι και τόσο μακρινού μέλλοντος. Με ποιον ορισμό θα είχε νόημα να μιλάμε σοβαρά για AGI;

«Σήμερα, υπάρχει σύγχυση σχετικά με τον τελικό στόχο της ΤΝ, τροφοδοτούμενης από τα ΜΜΕ και τις μεγάλες τεχνολογικές εταιρείες που εκτιμούν ότι οι μηχανές θα ξεπεράσουν σύντομα την ανθρώπινη νοημοσύνη. Επίσης θεωρούν ως τον τελικό στόχο την Τεχνητή Γενική Νοημοσύνη που θα “ξεπεράσει τις ανθρώπινες ικανότητες σε σχεδόν όλες τις γνωστικές λειτουργίες”. Ωστόσο, αυτός ο στόχος είναι ασαφής και, ως εκ τούτου, η επίτευξή του μη επαληθεύσιμη. Η ανθρώπινη νοημοσύνη δεν είναι απλώς ένα ετερόκλητο σύνολο λειτουργιών. Μπορούμε να έχουμε συστήματα που ξεπερνούν τον άνθρωπο στην εκτέλεση ενός μεγάλου συνόλου λειτουργιών. Αυτό όμως που χαρακτηρίζει την ανθρώπινη νοημοσύνη είναι η ορθολογικά οργανωμένη χρήση γνώσεων και δεξιοτήτων με σκοπό την κατανόηση του κόσμου και η στοχευμένη δράση, κάτι που κατά τη γνώμη των ειδικών δεν μπορεί να επιτύχει η μηχανική μάθηση».

Ο μέσος πολίτης, ο εργαζόμενος, ο μαθητής/φοιτητής βομβαρδίζεται από ολοένα και μεγαλύτερη προσφορά εργαλείων παραγωγικής ΤΝ, «copilots», «agents» και προϊόντων που υπόσχονται κυρίως αυξημένη αποτελεσματικότητα και παραγωγικότητα. Αν θέλαμε έναν πρακτικό κανόνα ψυχραιμίας, με ποια κριτήρια επιλέγουμε το κατάλληλο εργαλείο; Και πώς αναγνωρίζουμε πότε ένα τέτοιο εργαλείο δεν θα πρέπει να χρησιμοποιείται;

«Ο κανόνας είναι απλός: να χρησιμοποιούμε την ΤΝ μόνο στον βαθμό που μπορούμε να επαληθεύσουμε την εγκυρότητα των απαντήσεων, καθώς αυτές μπορεί να περιέχουν λάθη, πολλά από τα οποία είναι δύσκολο να εντοπιστούν. Το πλεονέκτημα της αυτοματοποίησης δεν πρέπει να ακυρώνεται από τον κίνδυνο λανθασμένων απαντήσεων ή από το κόστος της εξάλειψης των λαθών από ειδικούς».

Σε ποιους τομείς (π.χ. εργασία, εκπαίδευση, υγεία, δημόσιες υπηρεσίες) βλέπετε ρεαλιστικά ασφαλή και αξιόπιστη ΤΝ την επόμενη πενταετία; Και σε ποιους θεωρείτε ότι η χρήση θα προηγηθεί επικίνδυνα της αξιολόγησης;

«Ας ακολουθούμε πάντα τον παραπάνω κανόνα. Ετσι, θα έχουμε αύξηση της αποδοτικότητας σε εργασίες που ελέγχονται από τον χρήστη, όπως τον προγραμματισμό, την ανάλυση δεδομένων και τη σύνταξη εγγράφων. Επίσης στην εξατομικευμένη εκπαίδευση με συστήματα διδασκαλίας που προσαρμόζονται στον ρυθμό του μαθητή. Τέλος, σε υπηρεσίες κάθε είδους για την ανάλυση δεδομένων και την παραγωγή χρήσιμων πληροφοριών στους τομείς της υγείας, των τραπεζών, της δημόσιας διοίκησης, του τουρισμού, των μεταφορών κ.λπ.

Αντιθέτως η χρήση της ΤΝ ενέχει κινδύνους όταν δεν έχουμε τη δυνατότητα να ελέγξουμε την εγκυρότητα κρίσιμων αποφάσεων, όπως αυτόματη ιατρική διάγνωση, προληπτική αστυνόμευση, αυτοματοποιημένα εργαλεία ελέγχου βιογραφικών και “ψηφιακές συνεντεύξεις”. Τέλος, υπάρχουν πολλές εφαρμογές σε αυτόνομα συστήματα, από αυτόνομα οχήματα έως και αυτόνομα οπλικά συστήματα. Η έλλειψη διαφάνειας και κανόνων όσον αφορά τη χρήση τους εγείρει εύλογες ανησυχίες».

Ακολούθησε το Βήμα στο Google news και μάθε όλες τις τελευταίες ειδήσεις.
Exit mobile version