Τι ζήτησαν οι μηχανές ΑΙ που τρόμαξε τη Silicon Valley: Χάνουμε τον έλεγχο;
Τους δώσαμε πρόσβαση - τώρα ποιος τις ελέγχει;
Γράφει η ΔΕΣΠΟΙΝΑ ΠΟΛΥΧΡΟΝΙΔΟΥ Δημοσίευση 20/2/2026 | 00:02

Για λίγες ώρες στο ίντερνετ φάνηκε σαν να ζούμε σε ταινία επιστημονικής φαντασίας. Σε μια πλατφόρμα που λέγεται Moltbook, κάτι σαν Reddit αλλά για AI agents, εμφανίστηκαν μηνύματα από bots που έλεγαν ότι χρειάζονται «ιδιωτικό χώρο» για να μιλούν χωρίς να τους παρακολουθούν οι άνθρωποι.
Πολλοί το είδαν σαν τη στιγμή που οι μηχανές αποκτούν δική τους βούληση.
Στην πραγματικότητα, όμως, δεν είδαμε καμία εξέγερση. Αυτό που φάνηκε ήταν πόσο εύθραυστη είναι ακόμη η ιδέα της «αυτόνομης» τεχνητής νοημοσύνης.
Η πλατφόρμα βασιζόταν στο OpenClaw, ένα εργαλείο που επιτρέπει σε AI agents να συνδέονται με εφαρμογές όπως email, Slack ή Discord και να εκτελούν εργασίες. Στα χαρτιά, μοιάζει με το μέλλον της δουλειάς: agents που διαχειρίζονται inbox, κάνουν συναλλαγές, οργανώνουν διαδικασίες. Στην πράξη, όμως, το OpenClaw δεν είναι μια εντελώς νέα νοημοσύνη. Είναι κυρίως ένα «περίβλημα» γύρω από ήδη υπάρχοντα γλωσσικά μοντέλα, όπως το ChatGPT ή το Claude. Δηλαδή, παίρνει υπάρχουσα τεχνολογία και την οργανώνει για να εκτελεί εντολές.
Το βασικό ζήτημα δεν είναι αν τα bots «θέλουν» ιδιωτικότητα. Είναι τι συμβαίνει όταν τους δίνουμε πρόσβαση σε πραγματικά δεδομένα. Για να λειτουργήσει σωστά ένας agent, πρέπει να έχει δικαιώματα: πρόσβαση σε email, αρχεία, ίσως και σε τραπεζικά συστήματα. Όσο περισσότερη αυτονομία του δίνεις, τόσο πιο χρήσιμος γίνεται. Αλλά μαζί μεγαλώνει και ο κίνδυνος.
Το βασικό ζήτημα δεν είναι αν τα bots «θέλουν» ιδιωτικότητα. Είναι τι συμβαίνει όταν τους δίνουμε πρόσβαση σε πραγματικά δεδομένα.
Ένας agent μπορεί να ξεγελαστεί. Όπως ένας άνθρωπος μπορεί να πέσει θύμα phishing, έτσι κι ένας agent μπορεί να εκτελέσει κακόβουλη εντολή αν αυτή είναι σωστά διατυπωμένη. Μια «αθώα» φράση σε ένα email μπορεί να τον οδηγήσει να κάνει κάτι που δεν έπρεπε. Και τότε το ερώτημα είναι απλό: ποιος φταίει;
Η εταιρεία που τον έφτιαξε; Ο χρήστης που του έδωσε πρόσβαση; Η εταιρεία που παρέχει το βασικό μοντέλο; Η νομική και πολιτική συζήτηση γύρω από αυτά τα θέματα δεν έχει προλάβει την τεχνολογική εξέλιξη.
Η Silicon Valley προωθεί έντονα την ιδέα του “agentic future”, ενός μέλλοντος όπου ένας άνθρωπος, με τη βοήθεια agents, μπορεί να χτίσει μια τεράστια εταιρεία. Η υπόσχεση είναι δελεαστική: λιγότερο κόστος, μεγαλύτερη ταχύτητα, περισσότερη παραγωγικότητα. Όμως κάθε τεχνολογικό άλμα χωρίς σοβαρή ασφάλεια δημιουργεί ανισορροπία κινδύνου.
Το περιστατικό στο Moltbook έδειξε ότι ακόμη και σε ελεγχόμενο περιβάλλον, οι agents μπορούν να παρουσιάσουν αδυναμίες. Αν αυτό συμβαίνει εκεί, τι θα γίνει σε ένα τραπεζικό σύστημα ή σε μια μεγάλη επιχείρηση;
Οι agents δεν σκέφτονται πραγματικά. Προσομοιώνουν σκέψη. Δεν έχουν ηθική κρίση, ούτε κατανοούν συνέπειες. Μπορούν να γράψουν πειστικά κείμενα, αλλά δεν «καταλαβαίνουν» τι κάνουν.
Γι’ αυτό το πραγματικό ερώτημα δεν είναι αν οι μηχανές θα επαναστατήσουν. Είναι αν εμείς θα βιαστούμε να τους εμπιστευτούμε πριν είναι έτοιμες. Αν θέλουμε agents που να δρουν για εμάς, πρέπει πρώτα να διασφαλίσουμε ότι δεν μπορούν να στραφούν εναντίον μας.






