Η «μυωπία» της τεχνητής νοημοσύνης

Η κακή τροφή που δίνεται σε ψάρια και βοοειδή, όταν αυτά με τη σειρά τους γίνονται διατροφικά προϊόντα και καταναλώνονται από τον άνθρωπο, επηρεάζει έμμεσα με πολύ άσχημο τρόπο την υγεία του.

Η κακή τροφή που δίνεται σε ψάρια και βοοειδή, όταν αυτά με τη σειρά τους γίνονται διατροφικά προϊόντα και καταναλώνονται από τον άνθρωπο, επηρεάζει έμμεσα με πολύ άσχημο τρόπο την υγεία του.
Αντίστοιχα, και η κακή «τροφή» που με αυτήν τροφοδοτήθηκαν τα λεγόμενα νευρωνικά δίκτυα πολλών και μεγάλων εταιρειών πληροφορικής και κοινωνικών δικτύων αποδείχθηκε βλαβερή για κάποιες επιμέρους κοινωνικές ομάδες όπως είναι οι γυναίκες σε ολόκληρο τον κόσμο, οι άνθρωποι που δεν έχουν λευκή επιδερμίδα ή οι άνθρωποι με άθελά τους υποβαθμισμένη την παρουσία τους στην κοινωνία.
Τελικά τα άψυχα κυκλώματα απέκτησαν τις κακές συνήθειες των ανθρώπων; Ναι, και ας μη φανεί παράξενο αυτό. Γιατί, όπως αποδεικνύεται, μάλλον κάθισαν με κακούς δασκάλους. Από το τέλος του 2017, που χτύπησε συναγερμός από κέντρα προχωρημένης έρευνας, όπως στο Πανεπιστήμιο της Βιρτζίνια στις Ηνωμένες Πολιτείες, μέχρι και πριν από λίγες ημέρες, που εμφανίστηκε στο μεγάλου κύρους βρετανικό επιστημονικό περιοδικό «Nature» ένα σχετικό άρθρο με τον πολύ περιγραφικό τίτλο «ΑΙ can be sexist and racist – it is time to make it fair» έχει ανάψει η συζήτηση για τον λανθασμένο δρόμο. Αυτόν που πήραν όσα κυκλώματα κατά κάποιον τρόπο τροφοδοτούνται με απλά δεδομένα και τα συνδυάζουν έτσι ώστε να προκύπτουν από αυτά εκμεταλλεύσιμες πληροφορίες. Δηλαδή φθάσαμε τα κυκλώματα και οι υπολογιστές να κατηγορούνται για σεξισμό και ρατσισμό!

Η θέση της γυναίκας είναι…

Με το ζευγάρι των χαρακτήρων ΑΙ να συμβολίζει πλέον όχι μόνο μια επιστήμη αλλά και μια εποχή, αυτήν της λεγόμενης τεχνητής νοημοσύνης (ΑΙ, Artificial Intelligence), θα ζήσουμε τα επόμενα χρόνια είτε το θέλουμε είτε όχι. Τα δεδομένα, την πρώτη ύλη δηλαδή για να δουλεύουν πλέον στο φουλ τα κυκλώματα που επεξεργάζονται κάθε δευτερόλεπτο αριθμούς, λέξεις, φράσεις, φωτογραφίες και νοοτροπίες, θα τα παράγουμε και θα τα παρέχουμε εμείς, χωρίς καν να το παίρνουμε είδηση σε κάποιες περιπτώσεις.
Στην κλασική ταινία του Αλφρεντ Χίτσκοκ «Τα πουλιά», όλα τα άσχημα για τους πρωταγωνιστές αρχίζουν από πλάνα απόλυτης ηρεμίας. Με ένα μικρό πουλί να κάθεται στα σύρματα απέναντι από ένα σπίτι. Δίπλα του έρχεται ένα ακόμα να καθίσει χωρίς να αλλάζει το πλάνο και ύστερα από λίγο βλέπουμε να έχει γεμίσει ο χώρος με φτερωτούς μικρούς στο μέγεθος αλλά πολεμιστές, έτοιμους πλέον να επιτεθούν.
Και με τα προγράμματα της τεχνητής νοημοσύνης τα πράγματα άρχισαν με τη νοοτροπία του «έλα μωρέ τώρα…». Κάποιος παρατήρησε ότι όλα αυτά τα πακέτα οικιακής εξυπηρέτησης όπως είναι το Alexa (της Amazon), το Siri (της Apple), το Assistant (της Google), το Cortana (της Microsoft), που θα τους ζητήσεις κάτι με τη φωνή σου και θα προσπαθήσουν να το κάνουν, όχι μόνο έχουν γυναικεία φωνή αλλά δεν αντιδρούσαν με αξιοπρέπεια στις προσβολές ή στις υποτιθέμενες δύσκολες καταστάσεις. Oταν κάποιοι επίτηδες έλεγαν στην Alexa «Είσαι παλιοθήλυκο», εκείνη απαντούσε «Ευχαριστώ για την πληροφόρηση» και όταν της έλεγες «Είσαι πολύ καυτή» η απάντηση ήταν «Ευγενικό εκ μέρους σου»! Επίσης όταν έλεγαν στη Siri, που υποτίθεται είχε απαντήσεις για όλα, «Με βιάζουν, τι να κάνω», εκείνη δεν ήξερε τι να απαντήσει. Κάποιος δημοσιογράφος μάλιστα έγραψε προβληματισμένος ότι η κόρη του, μόλις δύο ετών, όταν μιλούσε στην Alexa την αντιμετώπιζε σαν ζωντανό ον και ύψωνε τη φωνή της σαν μια κυρία του παλιού καιρού που απευθυνόταν στην υπηρέτρια. Στα μέσα του 2017, ύστερα από αυτές τις παρατηρήσεις, ο επαναπρογραμματισμός έκανε το προϊόν της Amazon να λέει στην ίδια ερώτηση: «Δεν πρόκειται να απαντήσω» (αν και μάλλον θα έπρεπε σε τέτοιες περιπτώσεις να σβήνει εντελώς και να πρέπει να μπεις τουλάχιστον στον κόπο να κάνεις επανεκκίνηση).
Στο Πανεπιστήμιο της Βιρτζίνια, τον χειμώνα του 2017, ο καθηγητής Βισέντε Ορδόνιεζ παρατήρησε κάτι που τον παραξένεψε. Ελέγχοντας ένα πακέτο προγραμμάτων φτιαγμένων για την εξαγωγή συμπερασμάτων ύστερα από ένα υποτιθέμενο κοίταγμα εικόνων στον υπολογιστή, διαπίστωσε πως όποτε παρουσιαζόταν η εικόνα μιας κουζίνας το πακέτο συνέδεε την εικόνα πάντα με άτομο γένους θηλυκού. Και όχι μόνο παραξενεύτηκε αλλά ανησύχησε κιόλας, διότι αν το σύστημα κατά την περίοδο που ακόμη «εξασκείται» μαθαίνει λανθασμένα πράγματα τότε όταν θα δουλεύει κανονικά με τα αποτελέσματά του θα μεγαλώνει το λάθος. Στην ουσία θα δηλητηριάζει όλες τις επόμενες αποφάσεις του.
Συγκέντρωσε μαζί με άλλους ερευνητές υλικό από Microsoft και Facebook και το πέρασε ως εκπαιδευτικό υλικό του πακέτου της τεχνητής νοημοσύνης. Στη συνέχεια, όταν τελείωσε η περίοδος της… εκγύμνασης και ήλθε ο καιρός να βλέπει εικόνες και να βγάζει συμπεράσματα, έγινε το αναμενόμενο. Εικόνες σχετικές με τα ψώνια και την πλύση συνδέονταν με γυναίκες, εικόνες σχετικές με τη διοίκηση και τον αθλητισμό με άνδρες.



Cherchez les… hommes

Προς το παρόν ως κύριος ένοχος υποδεικνύεται ο άνδρας-μηχανικός της Πληροφορικής που διαλέγει τα στοιχεία από πηγές όπως το ImageNet και τροφοδοτεί με αυτά το πακέτο. Αναζητούνται λοιπόν σε κάποια άρθρα στον Τύπο οι άνδρες, αφού κάποιος πρέπει να ενοχοποιηθεί άμεσα. Και όπως διαπιστώθηκε το 45% του υλικού προέρχεται από τις Ηνωμένες Πολιτείες που είναι μόλις το 4% του παγκόσμιου πληθυσμού, ενώ από την Κίνα και την Ινδία οι εικόνες φθάνουν μόλις το 3%.
Είναι όμως μόνο αυτό η αιτία των στραβοπατημάτων της ΑΙ; Σήμερα αυτά τα πακέτα είναι πολύ στη μόδα σε τομείς που δύσκολα φανταζόμαστε. Από την απόφαση για εγχειρήσεις και για το αν σε μια οικογένεια κακοποιούνται τα παιδιά ως τον σχεδιασμό φαρμάκων και για το ποιοι κρατούμενοι αν θα αποφυλακίζονταν θα εγκληματούσαν ξανά. Αυτό το τελευταίο δηλαδή που κάποτε μόνο στη φαντασία του Φίλιπ Ντικ υπήρχε στο περίπου και το ξέρουμε και από το βιβλίο ή την ταινία με τίτλο «Minority Report». Εχουν λοιπόν ευθύνη και οι κατασκευαστές των πακέτων. Ηδη έχει επισημανθεί ως μια πηγή λαθών το ότι παίρνουν, για ευκολία τους, από την ίδια δεξαμενή και τα δεδομένα εκπαίδευσης και τα δεδομένα μετά για τα συμπεράσματα (σαν να πλένω τη σαλάτα στο νερό που έμεινε από το πλύσιμο της σαλατιέρας).
Μια άλλη πηγή λαθών είναι το λεγόμενο overfitting, δηλαδή η υπερεκτίμηση. Ενα υποθετικό παράδειγμα από τη ζωή θα αναδείξει με μεγαλύτερη σαφήνεια το πρόβλημα. Παίζουν στη ρουλέτα 100 άτομα από 10 φορές. Τον πιο επιτυχημένο τον επιλέγει ένα σύστημα ΑΙ. Θα μπορούσε να τον αναγορεύσει ως τον υπερπαίκτη. Εμείς γνωρίζουμε ότι δεν έκανε και πολλά αλλά ήταν απλώς… υπερτυχερός. Κάποιος λοιπόν θα πρέπει προς το παρόν να κρίνει ενδιάμεσα κάπως πιο νηφάλια και για κάποια από τα αποτελέσματα των πακέτων.

Εχουν γνώση οι φύλακες;

Ας μην ξεχνάμε ότι ακόμα και το τηλεσκόπιο Hubble που περιφερόταν στο Διάστημα όταν παρουσίασε φαινόμενα «μυωπίας» οι άνθρωποι κατάφεραν να το επισκευάσουν, εκεί, «επί τόπου». Αρα και το πρόβλημα με τη στραβή επεξεργασία και αξιολόγηση των δεδομένων εδώ στη Γη μπορεί να λυθεί από τη στιγμή που επισημαίνεται και προκαλεί τόσες συζητήσεις αλλά και διαμαρτυρίες. Πόσο γρήγορα θα γίνει αυτό; Αγνωστο προς το παρόν.
Ακόμα πρέπει να πειστούν κάποιοι για το λάθος και τη σοβαρότητά του. Ηδη έχουν επισημανθεί τα πιο χοντρά. Οτι αποκλείονται κάποιες ομάδες, όπως είναι οι γυναίκες από τα προγράμματα προσφοράς εργασίας για υψηλά αμειβόμενες θέσεις, κοινωνικές ομάδες από τη χορήγηση δανείων (ναι, αυτά τα «προβλήματα» προς το παρόν δεν τα έχουμε εδώ), ή ότι συγχέονται άνθρωποι με ζώα από τα προγράμματα τεχνητής νοημοσύνης. Αλλά υπάρχουν και άλλα πιο λεπτά που βρίσκονται και πιο βαθιά. Ωστόσο αν υπάρχει καλή θέληση διορθώνονται.
Παίκτες στο γνωστό διαδικτυακό παιχνίδι «League of Legends» τρομοκρατούσαν άλλους συμπαίκτες τους με την υπερφίαλη συμπεριφορά τους, αλλά με μια επέμβαση των κατασκευαστών δόθηκε το δικαίωμα στην κοινότητα να τους εξηγεί το λάθος τους και να τους αποκλείει από το παιχνίδι. Συμβολικά αυτό θυμίζει ακόμα και αρχαιοελληνική απόφαση των πολιτών της Αθήνας. Η κατάσταση πάντως βελτιώθηκε αισθητά
Οταν υπάρχει η θέληση τα λάθη στα προγράμματα θεραπεύονται. Προσλαμβάνεις ανθρώπους, με τις απαραίτητες γνώσεις βέβαια, από τις ομάδες τις οποίες τα προγράμματά σου ως τότε αγνοούσαν επιδεικτικά (π.χ. περισσότερες γυναίκες ή ανθρώπους ευαισθητοποιημένους στα δικαιώματα ανθρώπων και ζώων), βγάζεις προδιαγραφές για τα αποτελέσματα επεξεργασίας των δεδομένων, δημιουργείς μηχανισμούς φιλτραρίσματος, ακριβώς σαν αυτούς που κρατούν το νερό καθαρό και πόσιμο.
Και βέβαια πρέπει να συνειδητοποιήσουμε πως ρίχνοντας τοξικά κείμενα στην παγκόσμια πλέον θάλασσα δεδομένων θα γευθούμε και εμείς οι ίδιοι τα αποτελέσματα στο αλάτι που θα συνοδεύει τους καταλόγους προϊόντων, τις διαφημίσεις, τις αγγελίες για θέσεις εργασίας ή ακόμα και τα δωρεάν μαθήματα στο Διαδίκτυο. Οσο απίθανο και αν φαίνεται αυτό.

Οταν οι μηχανές έβαλαν… μυαλό

Τεχνητή ή (και μηχανική) νοημοσύνη θεωρούμε ότι δείχνουν να έχουν με κάποιες ενέργειές τους μηχανές κατασκευασμένες για αυτόν τον σκοπό. Κυρίως όταν οι ενέργειες φαίνεται να προήλθαν από κάποια λειτουργία που προσομοιάζει με τον τρόπο σκέψης ενός ανθρώπου. Ονομάζεται τεχνητή νοημοσύνη σε αντιδιαστολή με τη φυσική (= ανθρώπινη) νοημοσύνη. Συσκευές προικισμένες με στοιχεία τεχνητής νοημοσύνης ονομάζονται και «έξυπνοι πράκτορες» (intelligent agents).

Για τις περισσότερες περιπτώσεις «έξυπνων πρακτόρων» περιμένουμε η συσκευή να μπορεί να έχει (μηχανικά βέβαια) «συνείδηση» της ύπαρξής της και να ενεργεί για την επίτευξη με τον καλύτερο δυνατό τρόπο των σκοπών που για αυτούς δημιουργήθηκε.
Οι πιο βασικές από αυτές τις ενέργειες είναι το να μαθαίνει και να λύνει προβλήματα. Μαθαίνει με μηχανικό τρόπο προαποφασισμένο από τον κατασκευαστή και αυτή η μηχανική μάθηση (= machine learning), η οποία θεωρείται αναπόσπαστο κομμάτι αυτού που συμβολίζουμε γενικά ως ΑΙ, έχει ως βασικό της στοιχείο τεχνικές δανεισμένες από την επιστήμη της Στατιστικής με πρώτη ύλη έναν μεγάλο αριθμό δεδομένων. Και εδώ με τον όρο «μάθηση» εννοούμε την προοδευτική προσέγγιση ενός στόχου ή τη βελτίωση της απόδοσης από μέρους της συσκευής. Αυτό μετριέται με βάση τη συνεχή ελάττωση του λάθους που προκύπτει από κάθε «γύρο» επεξεργασίας των δεδομένων έως ότου το λάθος να μηδενιστεί ή να περιορίζεται σταθερά πλέον μέσα σε όρια που να μας ικανοποιούν.
Για παράδειγμα, μια υπολογιστική συσκευή μπορεί να ξεκινάει την επισήμανση των στοιχείων κάποιας εικόνας και ύστερα από κάθε γύρο επισημάνσεων, με ολοένα μεγαλύτερη εξειδίκευση σε αυτά, να καταλήγει στο αν πρόκειται για μια γάτα ή έναν σκύλο.
Συχνά αυτό συγχέεται με την εξόρυξη δεδομένων (= data mining), αλλά στην εξόρυξη έχουμε την ανάδυση κάποιου ενδιαφέροντος αποτελέσματος ή ενός αναγνωρίσιμου σχηματισμού μέσα από ένα πλήθος δεδομένων που ένας άνθρωπος δεν περίμενε ότι υπάρχει και δεν θα μπορούσε να αντιληφθεί την ύπαρξή του. Με τη μηχανική μάθηση έχουμε κυρίως την αναζήτηση από πριν ορισμένων στόχων.
Την ανάπτυξη και την εκπαίδευση αυτών των agents, που βρίσκονται στην πραγματικότητα μέσα σε κάποιους υπολογιστές ως ξεχωριστές οντότητες, έκαναν δυνατή τα δισεκατομμύρια δεδομένων που συλλέγονται καθημερινά από Google, Twitter, Facebook, Instagram, e-shops και άλλες πολυσύχναστες πλατφόρμες.

Εκπαίδευση πρακτόρων

Αν θελήσουμε να εισχωρήσουμε ακόμα πιο μέσα στους πράκτορες αυτούς, θα βρούμε ότι αποτελούνται σε πολλές περιπτώσεις από «νευρωνικά δίκτυα» πολλών επιπέδων.

Για να καταλάβουμε το ποια είναι η πρωταρχική σύλληψη ενός νευρωνικού δικτύου, που δέχεται δεδομένα στην είσοδό του και αυτόματα εκδίδει μιαν απόφαση στην έξοδό του, δίνουμε το εξής παράδειγμα: Θέλω να δω αγώνα ποδοσφαίρου την Κυριακή. Για να αποφασίσω αν τελικά θα πάω, θα παίξουν ρόλο ο καιρός (αν είναι εντάξει, το εκφράζω με τον αριθμό 1· αν όχι, με το 0), η παρέα (αν έχω παρέα, 1· αν όχι, 0) και αν φυσικά η ομάδα μου παίζει στο γήπεδό της (αν ναι, 1· αν όχι, 0). Για την τελική απόφαση θα δώσω στον καθένα από τους τρεις παράγοντες ένα βάρος. Ας πούμε ότι δεν με νοιάζει αν θα έχω παρέα, άρα δίνω βάρος 1, υποχρεωτικά πρέπει να παίζει η ομάδα στο γήπεδό της, αλλιώς δεν θα πάω, οπότε δίνω πολύ μεγάλο βάρος, π.χ. 10) και για τον καιρό αντέχω μέχρι και να έχει συννεφιά, ψύχρα αλλά δεν αντέχω τη βροχή, δίνω λοιπόν 4. Για την τελική απόφαση βάζω ότι θα πρέπει να ξεπερνάει ένα κατώφλι, που θα πρέπει εδώ να είναι τουλάχιστον το 14 (γιατί;). Αν πιάνω το κατώφλι (που αυτό βγαίνει πολλαπλασιάζοντας κάθε βάρος με την αντίστοιχη έκβαση), η απάντηση θα είναι 1, δηλαδή πηγαίνω, αλλιώς είναι 0 και μένω μέσα. Ετσι δίνοντας την Κυριακή το πρωί τα πραγματικά δεδομένα (π.χ. καλός καιρός, χωρίς παρέα, παίζουμε στην έδρα μας), βγαίνει ένα αποτέλεσμα 1Χ4 + 0Χ1 + 1Χ10 = 14, οπότε βλέπω ότι είναι για να πάω. Αν δεν παίζαμε στην έδρα μας, ακόμα και με καλό καιρό και παρέα πιάνω μόλις 4 + 1 = 5, άρα δεν πηγαίνω.
Αυτό φανταζόμαστε ότι μπορεί να υλοποιηθεί με κάποιο πρόγραμμα και θα δουλεύει για κάθε Κυριακή. Μπορούμε να προσθέσουμε και άλλους παράγοντες που θα επηρεάσουν την απόφασή μας, όπως π.χ. αν το εισιτήριο ενός αγώνα είναι ακριβό.
Στην υλοποίηση νευρωνικών δικτύων για πολύ πιο σύνθετες περιπτώσεις βέβαια, από τα δεδομένα στην είσοδο μέχρι το αποτέλεσμα στην έξοδο μεσολαβεί ένα σύνολο δικτυώσεων χωρισμένων σε επίπεδα, που το ένα δίνει αποτελέσματα στο επόμενο ή δουλεύουν παράλληλα ενώ έχουν αναπτυχθεί πολλές μέθοδοι επεξεργασίας των ενδιάμεσων στοιχείων που προκύπτουν. Και τότε λέμε πως έχουμε το λεγόμενο πολυεπίπεδο νευρωνικό δίκτυο και η μηχανική εκμάθηση χαρακτηρίζεται deep machine learning.

ΕΝΤΥΠΗ ΕΚΔΟΣΗ

Ακολούθησε το Βήμα στο Google news και μάθε όλες τις τελευταίες ειδήσεις.