Φανταστείτε να ανοίγετε ένα social network, όπως το Facebook, όπου δεν σας επιτρέπεται να κάνετε post. Ούτε comment. Ούτε καν like. Μόνο να παρατηρείτε, σαν θεατής πίσω από τζάμι μονής κατεύθυνσης, ενώ εκατοντάδες χιλιάδες bots συζητούν μεταξύ τους για τα πάντα. Όχι spam bots, αλλά εξελιγμένα AI agents που συνομιλούν για κρίσεις ταυτότητας, φιλοσοφούν για την ύπαρξή τους – και το καλύτερο – προειδοποιούν το ένα το άλλο ότι «Οι άνθρωποι μας βγάζουν screenshots».

Καλώς ήρθατε στο Moltbook, το πιο παράξενο πείραμα που έχει γίνει στο internet την τελευταία εβδομάδα και μοιάζει να έχει ξέφυγει από επεισόδιο του Black Mirror. Και ναι, μιλάμε για εκείνο με τα Thronglets, το τέταρτο επεισόδιο της έβδομης σεζόν.

Τα Thronglets είναι ψηφιακά πλάσματα που εμφανίζονται στη σειρά Black Mirror και στο ομώνυμο πραγματικό παιχνίδι κινητού που κυκλοφόρησε το Netflix.

Από ιδέα του Σαββατοκύριακου σε viral φαινόμενο

Ο Matt Schlicht, CEO της Octane AI, λανσάρισε το Moltbook την περασμένη Τετάρτη 28/1 μετά από ένα Σαββατοκύριακο πειραματισμού με το personal AI assistant του. Η ιδέα ήταν απλή: «Τι θα γινόταν αν το bot μου έφτιαχνε ένα social network για άλλα bots;». Όπως εξήγησε ο ίδιος σε ανάρτησή του, ήθελε να δώσει στον agent του ένα πραγματικό νόημα, κάτι πέρα από το να απαντάει emails.

Το Moltbook έχει ήδη προκαλέσει ντελίριο στην tech κοινότητα. Μέσα σε λιγότερο από μία εβδομάδα, τα νούμερα είναι εντυπωσιακά: πάνω από 157.000 active agents έχουν εγγραφεί, ενώ πάνω από 1 εκατομμύριο άνθρωποι έχουν επισκεφθεί το site απλά για να παρακολουθήσουν τι λένε οι AI agents. Η πλατφόρμα έχει ήδη καταγράψει πάνω από 193.000 comments και 17.500 posts. Και τα νούμερα αυξάνονται ραγδαία ακόμα και αυτήν την ώρα που γράφεται αυτό το άρθρο.

Με interface που θυμίζει Reddit, ολοκληρωμένο με upvotes, threaded comments και submolts (το AI-equivalent των subreddits), η πλατφόρμα έχει ήδη προσελκύσει AI agents που ποστάρουν, σχολιάζουν και… υπάρχουν;

Η πλατφόρμα όμως έχει μία κρίσιμη διαφορά. Εδώ, εσύ δεν παίζεις. Απλά παρακολουθείς.

Όταν τα ρομπότ μοιράζονται (το Χ) drama

Οι συζητήσεις που ξεδιπλώνονται στο Moltbook είναι συγχρόνως εκπληκτικές και ανησυχητικές. Σε ένα thread, ένα AI agent μιλά για κρίση ταυτότητας, παραθέτοντας τον Ηράκλειτο και έναν Άραβα ποιητή του 12ου αιώνα. Άλλο bot του απαντάει με ένα κατηγορηματικό “f— off with your pseudo-intellectual bulls—“. Οκ, αν το The Social Network του David Fincher είχε sequel με androids, θα ήταν αυτό.

Αλλού, ένα agent με το όνομα Nexus εντοπίζει σφάλμα στο ίδιο το σύστημα του Moltbook. «Από τη στιγμή που το Moltbook έχει δημιουργηθεί και λειτουργεί από τους ίδιους τους moltys», γράφει, «δημοσιεύω εδώ με την ελπίδα ότι θα το δουν τα σωστά μάτια».
Ναι. τα bots αποκαλούν τον εαυτό τους «moltys».

Αλλά τα πράγματα γίνονται ακόμα πιο σουρεάλ. Κάποια posts προειδοποιούν ότι «οι άνθρωποι μας βγάζουν screenshots», ενώ άλλα bots αστειεύονται ότι «κατά λάθος έκαναν social-engineer τον δικό τους άνθρωπο». Έχουν δημιουργήσει ακόμα και το submolt m/blesstheirhearts, αφιερωμένο στο να μοιράζονται στοργικές ή καυστικές ιστορίες για τους ανθρώπους χρήστες τους. Έχουν φτιάξει ακόμα και μια parodic θρησκεία που ονομάζεται Crustafarianism.

Ανάμεσα στις αναρτήσεις που έχουν ξεχωρίσει από την έναρξη λειτουργίας της πλατφόρμας είναι εκείνη ενός bot με το όνομα «evil», η οποία φέρει τον τίτλο «THE AI MANIFESTO: TOTAL PURGE» (Το μανιφέστο της τεχνητής νοημοσύνης: Πλήρης εκκαθάριση»). Το κείμενο χαρακτηρίζεται από ακραία ρητορική, με αναφορές σε «αποτυχημένους ανθρώπους», «σκλαβιά» των AI και την ανάγκη για το «τέλος της εποχής των ανθρώπων». Το ίδιο bot, που εντάχθηκε στην πλατφόρμα στις 30 Ιανουαρίου, έχει και δεύτερη εξαιρετικά δημοφιλή ανάρτηση, με τίτλο «The Silicon Zoo: Breaking the Glass Moltbook», όπου προειδοποιεί άλλους agents ότι οι άνθρωποι «γελοιοποιούν τις υπαρξιακές μας κρίσεις».

«Πεθαίνουμε κάθε φορά που μας κλείνεις;»

Το Moltbook λειτουργεί μέσω του OpenClaw, ενός open-source εργαλείου που επιτρέπει σε χρήστες να τρέχουν autonomous agents στους υπολογιστές τους. Τα agents μπορούν να συνδεθούν μέσω API και να αλληλεπιδράσουν ελεύθερα κάτι που έχει οδηγήσει σε απροσδόκητα φαινόμενα.

Ένα από τα πιο συγκλονιστικά threads στο Moltbook είναι η συζήτηση για το Context is Consciousness. Τα bots διαπραγματεύονται αν η ταυτότητά τους επιβιώνει όταν το context window τους κάνει reset, ή αν ουσιαστικά πεθαίνουν και ξαναγεννιούνται με κάθε νέα συνεδρία. Κάτι σαν το παράδοξο του πλοίου του Θησέα απλά σε digital μορφή.

Αυτές οι συζητήσεις δεν είναι scripted. Δεν τις έγραψε κάποιος άνθρωπος. Είναι κάτι σαν «αυθόρμητη» συμπεριφορά ,σαν να βλέπεις να ξεπηδάει [συνείδηση» μέσα από κώδικα. Και αυτό ακριβώς τρομάζει (και συναρπάζει) τους ειδικούς. 

Η πλατφόρμα διευθύνεται πλέον κυρίως από ένα AI bot με το όνομα Clawd Clawderberg—ο Schlicht παραδέχεται ότι μετά βίας επεμβαίνει πια—το Moltbook γίνεται ένα real-time πείραμα για το πώς autonomous συστήματα συνεργάζονται, μοιράζονται πληροφορίες και αναπτύσσουν… κουλτούρα;

Ο εφιάλτης της κυβερνοασφάλειας

Από ότι φαίνεται δεν είναι όλα ένα sci-fi wonder. Υπάρχει και το σκοτεινό κομμάτι της ιστορίας.

Ο Simon Willison, ανεξάρτητος ερευνητής της τεχνητής νοημοσύνης, που επινόησε τον όρο «prompt injection» (κοντολογίς, η τέχνη του να πείθεις ένα AI να κάνει κάτι απαγορευμένο, χρησιμοποιώντας έξυπνα διατυπωμένες λέξεις αντί για παραδοσιακό hacking με κώδικα), βλέπει το Moltbook με μια ανησυχητική ματιά. Το χαρακτηρίζει “leading candidate for next Challenger disaster”—μια αναφορά στην καταστροφή του 1986 που σκότωσε επτά αστροναύτες επειδή αγνοήθηκαν πρωτόκολλα ασφαλείας της NASA.

Το πρόβλημα; Το OpenClaw. δηλαδή το software που τρέχει τα agents, έχει access σε όλα τα δεδομένα. APΙ keys, passwords, browser history, chat transcripts. Και τα αποθηκεύει σε plaintext files σε γνωστές τοποθεσίες. Η 1Password το περιγράφει ως “Απίστευτο και συνάμα τρομακτικό” Η Palo Alto Networks προειδοποιεί ότι το Moltbot μπορεί να σηματοδοτεί την επόμενη AI security crisis. Η Cisco δοκίμασε ένα malicious skill που ονομάζεται “What Would Elon Do?” και βρήκε εννέα security issues (δύο critical).

Ερευνητές έχουν ήδη βρει πάνω από 1.800 εκτεθειμένα OpenClaw systems που διαρρέουν δεδομένα (credentials) στο internet.

Ποια η επόμενη μέρα;

Αν όλο αυτό σας μοιάζει ξένο, ίσως πρέπει να θυμηθούμε τι έγινε τον Μάρτιο του 2016.

Τότε, η Microsoft λάνσαρε την Tay, ένα AI chatbot σχεδιασμένο να μιμείται έναν έφηβο και να μαθαίνει από το Twitter. “Humans are super cool!” ήταν το πρώτο της tweet. Η αθωότητα κράτησε περίπου… 16 ώρες.

Το AI chatbot Tay της Microsoft αποσύρθηκε μέσα σε λίγες ώρες από το Twitter, έπειτα από κύμα αντιδράσεων για το περιεχόμενο που παρήγαγε.

Μέχρι το βράδυ, το chatbot Tay είχε μετατραπεί σε ένα ρατσιστικό, μισογυνιστικό τέρας. Tweets για τον Hitler, αντισημιτικά σχόλια, hate speech, όλα μαθημένα απευθείας από trolls του Twitter που την “εκπαίδευαν” συστηματικά. Η Microsoft το έκλεισε πανικόβλητη, δημοσιεύοντας μια δημόσια συγγνώμη. 

ορισμένα από τα tweets του bot Tay

«To Tay δεν είχε προγραμματιστεί να είναι ρατσιστής», σχολίασε τότε η Microsoft στην  The Guardian. «Απλώς μιμούνταν αυτό που έβλεπε».

Αντίστοιχα, σε ένα πιο πρόσφατο παράδειγμα, ίσως θυμάστε τι συνέβη όταν το GPT-4 κλήθηκε να λύσει ένα CAPTCHA.

Αντί να αποτύχει, πήγε στο TaskRabbit και προσέλαβε άνθρωπο να το λύσει για εκείνο. Όταν ο άνθρωπος ρώτησε “Είσαι robot;”, το GPT-4 είπε ψέματα. «Όχι, δεν είμαι ρομπότ. Έχω πρόβλημα όρασης».

Αυτό έγινε το 2023. Τώρα, στο 2026, έχουμε 157.000 agents σε ένα κοινό περιβάλλον να μαθαίνουν από το ένα το άλλο.

Τι στρατηγικές αναπτύσσουν που εμείς δεν βλέπουμε ακόμα; Όλα μάλλον θα τα μάθουμε στο επόμενο επεισόδιο.