Των Josh A. Goldstein – Girish Sastry
Στα επτά χρόνια που μεσολάβησαν από τότε που Ρώσοι πράκτορες παρενέβησαν στις προεδρικές εκλογές του 2016 στις ΗΠΑ, εν μέρει παριστάνοντας τους Αμερικανούς σε χιλιάδες ψεύτικους λογαριασμούς στα μέσα κοινωνικής δικτύωσης, μια άλλη τεχνολογία με την δυνατότητα να επιταχύνει την διάδοση της προπαγάνδας έχει βρεθεί στο επίκεντρο: η τεχνητή νοημοσύνη, ή αλλιώς AI (Artificial Intellligence). Μεγάλο μέρος της ανησυχίας [2] έχει επικεντρωθεί στους κινδύνους των ηχητικών και οπτικών «deepfakes», τα οποία χρησιμοποιούν την τεχνητή νοημοσύνη για την επινόηση εικόνων ή γεγονότων που δεν συνέβησαν στην πραγματικότητα. Αλλά μια άλλη ικανότητα της ΑΙ είναι εξίσου ανησυχητική. Οι ερευνητές έχουν προειδοποιήσει εδώ και χρόνια [3] ότι τα συστήματα παραγωγής τεχνητής νοημοσύνης που έχουν εκπαιδευτεί να παράγουν πρωτότυπη γλώσσα -«γλωσσικά μοντέλα» (language models), για συντομία- θα μπορούσαν να χρησιμοποιηθούν από τους αντιπάλους των ΗΠΑ για να οργανώσουν επιχειρήσεις επιρροής. Και τώρα, αυτά τα μοντέλα φαίνεται να βρίσκονται στο κατώφλι του να επιτρέπουν στους χρήστες να παράγουν μια σχεδόν απεριόριστη ποσότητα πρωτότυπου κειμένου με περιορισμένη ανθρώπινη προσπάθεια. Αυτό θα μπορούσε να βελτιώσει την ικανότητα των προπαγανδιστών να πείθουν ανυποψίαστους ψηφοφόρους, να κατακλύζουν τα διαδικτυακά περιβάλλοντα πληροφοριών, και να εξατομικεύουν τα μηνύματα ηλεκτρονικού “ψαρέματος” (phishing). Ο κίνδυνος είναι διττός: τα γλωσσικά μοντέλα όχι μόνο θα μπορούσαν να επηρεάσουν τις πεποιθήσεις, αλλά και να διαβρώσουν την εμπιστοσύνη του κοινού στις πληροφορίες στις οποίες βασίζονται οι άνθρωποι για να σχηματίσουν κρίσεις και να λάβουν αποφάσεις.
Η πρόοδος της δημιουργικής έρευνας τεχνητής νοημοσύνης έχει ξεπεράσει τις προσδοκίες [4]. Πέρυσι, γλωσσικά μοντέλα χρησιμοποιήθηκαν για την δημιουργία λειτουργικών πρωτεϊνών, για να νικήσουν ανθρώπινους παίκτες σε παιχνίδια στρατηγικής που απαιτούν διάλογο, και για να δημιουργήσουν διαδικτυακούς βοηθούς. Τα γλωσσικά μοντέλα συνομιλίας έχουν αρχίσει να χρησιμοποιούνται ευρέως σχεδόν εν μια νυκτί: περισσότεροι από 100 εκατομμύρια άνθρωποι χρησιμοποίησαν το πρόγραμμα ChatGPT της OpenAI τους δύο πρώτους μήνες μετά την έναρξή του, τον Δεκέμβριο του 2022, και εκατομμύρια άλλοι πιθανώς χρησιμοποίησαν τα εργαλεία τεχνητής νοημοσύνης που εισήγαγαν η Google και η Microsoft αμέσως μετά. Ως αποτέλεσμα, οι κίνδυνοι [5] που φαίνονταν θεωρητικοί μόλις πριν από λίγα χρόνια, εμφανίζονται τώρα όλο και πιο ρεαλιστικοί. Για παράδειγμα, το «chatbot» με τεχνητή νοημοσύνη που τροφοδοτεί την μηχανή αναζήτησης Bing της Microsoft έχει αποδειχθεί ικανό να επιχειρεί να χειραγωγήσει τους χρήστες -και ακόμη και να τους απειλεί.
Καθώς τα εργαλεία δημιουργικής τεχνητής νοημοσύνης σαρώνουν τον κόσμο, είναι δύσκολο να φανταστεί κανείς ότι οι προπαγανδιστές δεν θα τα χρησιμοποιήσουν για να ψεύδονται και να παραπλανούν. Για να προετοιμαστούν για αυτό το ενδεχόμενο, οι κυβερνήσεις, οι επιχειρήσεις, και οι οργανώσεις της κοινωνίας των πολιτών θα πρέπει να αναπτύξουν κανόνες και πολιτικές για την χρήση κειμένων που δημιουργούνται με τεχνητή νοημοσύνη, καθώς και τεχνικές για να υπολογίζουν την προέλευση ενός συγκεκριμένου κειμένου και αν έχει δημιουργηθεί με την χρήση τεχνητής νοημοσύνης. Οι προσπάθειες δημοσιογράφων και ερευνητών για την αποκάλυψη ψεύτικων λογαριασμών στα μέσα κοινωνικής δικτύωσης και ιστοσελίδων ψεύτικων ειδήσεων (fake news) μπορούν επίσης να περιορίσουν την εμβέλεια των εκστρατειών συγκαλυμμένης προπαγάνδας -ανεξάρτητα από το αν το περιεχόμενο είναι γραμμένο από ανθρώπους ή από τεχνητή νοημοσύνη.
ΓΛΩΣΣΙΚΑ ΕΡΓΟΣΤΑΣΙΑ
Ένα γλωσσικό μοντέλο είναι ένας τύπος συστήματος ΑΙ που εκπαιδεύεται μέσω δοκιμής και λάθους (trial and error) για να καταναλώνει και να παράγει κείμενο. Ένα μεγάλο μέρος της διαδικασίας εκπαίδευσης περιλαμβάνει την πρόβλεψη της επόμενης λέξης σε ένα μεγάλο σώμα κειμένου. Αν η πρόβλεψη είναι λανθασμένη, το μοντέλο τιμωρείται˙ αν η πρόβλεψη είναι σωστή, ανταμείβεται. Αυτή η απλή διαδικασία έχει παραγάγει εκπληκτικά ικανά αποτελέσματα. Ζητήστε από ένα μοντέλο να ξαναγράψει ένα tweet με διαφορετικές λέξεις ή να συνθέσει μια ανάρτηση σε ιστολόγιο που περιλαμβάνει συγκεκριμένα σημεία, και θα το κάνει. Τα γλωσσικά μοντέλα έχουν μάθει να κάνουν εκπληκτικά πράγματα που ακόμη και αυτοί που τα εκπαίδευσαν δεν τα περίμεναν [6], συμπεριλαμβανομένης της αποσύνθεσης λέξεων, της εκτέλεσης οκταψήφιων αριθμητικών υπολογισμών, και της επίλυσης μαθηματικών προβλημάτων λέξεων. Οι ερευνητές δεν μπορούν να προβλέψουν με αξιοπιστία ποιες δυνατότητες θα μπορούσαν να επιτύχουν τα μελλοντικά γλωσσικά μοντέλα.
Φυσικά, τα σημερινά μοντέλα έχουν περιορισμούς. Ακόμα και τα πιο προηγμένα δυσκολεύονται να διατηρήσουν την συνοχή τους σε μεγάλα κείμενα, κάνουν ψευδείς ή παράλογες δηλώσεις (ένα φαινόμενο που ονομάστηκε «ψευδαίσθηση» [7] από τους ερευνητές ΑΙ), και αποτυγχάνουν να κατανοήσουν γεγονότα που συμβαίνουν μετά την εκπαίδευση των μοντέλων. Παρά τους περιορισμούς αυτούς, τα μοντέλα μπορούν να παράγουν κείμενο που συχνά διαβάζεται σαν να έχει γραφτεί από άνθρωπο. Αυτό τα καθιστά φυσικά εργαλεία για την κλιμάκωση της παραγωγής προπαγάνδας. Και οι προπαγανδιστές θα τα βρίσκουν μόνο πιο ελκυστικά όσο αυξάνονται οι ικανότητές τους και διορθώνονται προβλήματα όπως οι φαντασιοπληξίες -για παράδειγμα, αν εκπαιδευτούν να αναζητούν πληροφορίες πριν απαντήσουν σε ερωτήματα.
Σκεφτείτε τι θα μπορούσε να κάνει η τεχνητή νοημοσύνη για τις υπάρχουσες προπαγανδιστικές επιχειρήσεις. Η Ρωσίδα δημοσιογράφος, Ksenia Klochkova, έχει γράψει [8] για την εμπειρία της να πάει μυστικά για μια μέρα στο Cyber Front Z, μια «φάρμα τρολ» (troll farm) με έδρα την Αγία Πετρούπολη που διαδίδει προπαγάνδα για τον πόλεμο της Ρωσίας στην Ουκρανία. Σε μια έρευνα που δημοσιεύθηκε τον Μάρτιο του 2022, η Klochkova γράφει ότι ήταν μια από τους 100 υπαλλήλους μιας βάρδιας που πληρώνονταν για να γράφουν σύντομες αναρτήσεις σε καθορισμένους ιστότοπους κοινωνικής δικτύωσης προωθώντας την ατζέντα της Μόσχας [9]. Μετά τον πρώτο μήνα, οι εργαζόμενοι μπορούσαν να μεταβούν σε απομακρυσμένες θέσεις, επιτρέποντας στην επιχείρηση να αναπτυχθεί πέρα από το φυσικό της αποτύπωμα. Τα γλωσσικά μοντέλα θα μπορούσαν να χρησιμοποιηθούν για να ενισχύσουν [10] ή να αντικαταστήσουν τους ανθρώπινους συγγραφείς στην δημιουργία τέτοιου περιεχομένου, μειώνοντας τον αριθμό των εργαζομένων που θα χρειαζόταν το Cyber Front Z και παρόμοιες φάρμες τρολ για να λειτουργήσουν. Εάν το κόστος μειωθεί, όλο και περισσότεροι πολιτικοί παράγοντες θα μπορούσαν να αποφασίσουν να χρηματοδοτήσουν ή να διευθύνουν επιχειρήσεις επιρροής. Και με μικρότερο προσωπικό, τέτοιες εκστρατείες είναι λιγότερο πιθανό να ανακαλυφθούν, καθώς θα απασχολούν λιγότερους πιθανούς διαρροείς και κατασκόπους.
Τα ίδια πράγματα που θα έκαναν τα γλωσσικά μοντέλα χρήσιμα για επιχειρήσεις όπως το Cyber Front Z -η ικανότητα να παράγουν φθηνά κλιμακούμενο περιεχόμενο που δεν διακρίνεται από το ανθρώπινο κείμενο- θα μπορούσαν να τα κάνουν χρήσιμα σε άλλους τομείς που δεν σχεδιάστηκαν με γνώμονα την τεχνητή νοημοσύνη. Το 2020, οι μελετητές, Sarah Kreps και Douglas Kriner, διεξήγαγαν ένα πείραμα [11] στο οποίο έστειλαν σε νομοθέτες των ΗΠΑ επιστολές γραμμένες από τεχνητή νοημοσύνη και από ανθρώπους, σαν να ήταν από ψηφοφόρους. Διαπίστωσαν ότι οι νομοθέτες είχαν μόνο δύο ποσοστιαίες μονάδες λιγότερες πιθανότητες να ανταποκριθούν σε επιστολές που είχαν δημιουργηθεί από ΑΙ από όσο σε επιστολές που είχαν γραφτεί από ανθρώπους. Ο κίνδυνος είναι ότι τα γλωσσικά μοντέλα θα μπορούσαν να χρησιμοποιηθούν για να καταχραστούν ή ακόμα και να υπερφορτώσουν τα συστήματα που λαμβάνουν πληροφορίες από το κοινό, υπονομεύοντας την δημοκρατική λογοδοσία, αν οι εκλεγμένοι αξιωματούχοι δυσκολεύονται να διακρίνουν τις πραγματικές απόψεις των ψηφοφόρων τους ή απλά αποτυγχάνουν να αντιμετωπίσουν την πλημμυρίδα των εισερχομένων τους.
Αυτό δεν σημαίνει ότι τα γλωσσικά μοντέλα θα κατακλύσουν αναγκαστικά τα συστήματα παντού. Σε ορισμένες περιπτώσεις, έχουν αποδειχθεί ακατάλληλα. Ο ιστότοπος τεχνολογικών ειδήσεων, CNET, δημοσίευσε δεκάδες ειδησεογραφικά άρθρα που δημιουργήθηκαν με τεχνητή νοημοσύνη, για να ανακαλύψει ότι πολλά από αυτά ήταν γεμάτα με ανακρίβειες. Το Stack Overflow, μια πλατφόρμα που επιτρέπει στους προγραμματιστές να απαντούν ο ένας στις ερωτήσεις του άλλου, αναγκάστηκε να απαγορεύσει στους χρήστες να χρησιμοποιούν το ChatGPT, επειδή εξακολουθούσε να δίνει λανθασμένες απαντήσεις. Όμως, καθώς τα γλωσσικά μοντέλα βελτιώνονται, η παραγωγή τους θα είναι όλο και πιο δύσκολο να εντοπιστεί με βάση το περιεχόμενο και μόνο. Θεσμοί τόσο διαφορετικοί όσο οι πλατφόρμες κοινωνικής δικτύωσης και οι κυβερνητικοί οργανισμοί που αναζητούν δημόσια σχόλια θα πρέπει να εξετάσουν αν είναι επιρρεπείς στο να κατακλύζονται από κείμενο που παράγεται από τεχνητή νοημοσύνη -και να σκληρύνουν τις άμυνές τους, αν ναι.
ΜΟΝΟ ΓΙΑ ΣΕΝΑ
Τα γλωσσικά μοντέλα δεν προσφέρουν απλώς την δυνατότητα παραγωγής περισσότερης προπαγάνδας με χαμηλότερο κόστος. Θα μπορούσαν επίσης να βελτιώσουν την ποιότητα της προπαγάνδας προσαρμόζοντάς την σε συγκεκριμένες ομάδες. Το 2016, οι υπάλληλοι της ρωσικής φάρμας τρολ, γνωστής ως Internet Research Agency, προσπάθησαν να ενσωματωθούν [12] [13] σε συγκεκριμένες διαδικτυακές κοινότητες -για παράδειγμα, παρουσιαζόμενοι ως αριστεροί μαύροι Αμερικανοί και ως λευκοί Αμερικανοί υπέρ του Trump- ώστε να διαδώσουν προσαρμοσμένη προπαγάνδα σε αυτές τις ομάδες. Αλλά τέτοιες προσπάθειες πλαστοπροσωπίας περιορίζονται από το εύρος ζώνης (bandwidth) των χειριστών και την γνώση τους για συγκεκριμένες κοινότητες-στόχους: υπάρχει μόνο ένα ορισμένο όριο προπαγάνδας που μπορούν να γράψουν και ένα ορισμένο όριο κοινοτήτων που μπορούν να μελετήσουν.
Καθώς τα γλωσσικά μοντέλα βελτιώνονται, τα εμπόδια αυτά θα μπορούσαν να μειωθούν. Οι πρώτες έρευνες [14] δείχνουν ότι τα μοντέλα μπορούν να αντλήσουν από την κοινωνικοπολιτισμική εμπειρία μιας συγκεκριμένης δημογραφικής ομάδας και να εμφανίσουν τις προκαταλήψεις αυτής της ομάδας. Δεδομένης της πρόσβασης σε λεπτομερή δεδομένα σχετικά με τις κοινότητες των ΗΠΑ από δημοσκοπήσεις, εμπόρους δεδομένων, ή πλατφόρμες κοινωνικών μέσων, τα μελλοντικά γλωσσικά μοντέλα θα μπορούσαν να αναπτύξουν περιεχόμενο για μια συνεκτική προσωπικότητα, επιτρέποντας στους προπαγανδιστές να χτίσουν αξιοπιστία σε ένα κοινό-στόχο χωρίς να γνωρίζουν πραγματικά αυτό το κοινό. Η εξατομικευμένη προπαγάνδα θα μπορούσε να είναι αποτελεσματική και εκτός των μέσων κοινωνικής δικτύωσης, για παράδειγμα μέσω προσαρμοσμένων email ή ειδησεογραφικών ιστότοπων.
Η πιο ακραία μορφή εξατομίκευσης μπορεί να είναι η προσωπική συνομιλία. Με τα chatbots που λειτουργούν με τεχνητή νοημοσύνη, οι προπαγανδιστές θα μπορούσαν να ασχοληθούν με τους στόχους τους ατομικά, αντιμετωπίζοντας άμεσα τις ανησυχίες ή τα αντεπιχειρήματά τους και αυξάνοντας τις πιθανότητες πειθούς (ή τουλάχιστον απόσπασης της προσοχής). Αυτήν την στιγμή, θα ήταν εξαιρετικά δαπανηρή η χρήση πόρων για την διεξαγωγή μιας επιχείρησης επιρροής που βασίζεται σε συνεχή διάλογο μεταξύ μεμονωμένων προπαγανδιστών και μεγάλων πληθυσμών. Στο μέλλον, καθώς τα γλωσσικά μοντέλα γίνονται πιο πειστικά και λιγότερο δαπανηρά, τέτοιες εκστρατείες θα μπορούσαν να είναι εφικτές με την βοήθεια της τεχνητής νοημοσύνης.
Είναι ήδη δύσκολο να γίνει διάκριση μεταξύ των διαδικτυακών ανθρώπινων συνομιλητών και των μηχανών. Ένα πρόσφατο ερευνητικό πρόγραμμα [15] έδειξε ότι ένας πράκτορας τεχνητής νοημοσύνης κατατάχθηκε στο κορυφαίο 10% των συμμετεχόντων σε μια διαδικτυακή έκδοση του κλασικού επιτραπέζιου παιχνιδιού Diplomacy, το οποίο περιλαμβάνει διαπραγματεύσεις με πραγματικούς ανθρώπους για την δημιουργία συμμαχιών. Αν τα σημερινά γλωσσικά μοντέλα μπορούν να εκπαιδευτούν για να πείσουν τους παίκτες να συνεργαστούν σε ένα παιχνίδι, τα μελλοντικά μοντέλα μπορεί να είναι σε θέση να πείσουν τους ανθρώπους να αναλάβουν δράση -να ενταχθούν σε μια ομάδα στο Facebook, να υπογράψουν μια αίτηση, ή ακόμη και να εμφανιστούν σε μια διαδήλωση.
Για να κατανοήσετε το πόσο γρήγορα βελτιώνονται τα γλωσσικά μοντέλα, εξετάστε ένα από τα τελευταία μοντέλα της Google, που ονομάζεται Flan-PaLM. Το μοντέλο μπορεί να απαντήσει σωστά σχεδόν εννέα στις δέκα ερωτήσεις στις εξετάσεις ιατρικής αδειοδότησης των ΗΠΑ (U.S. Medical Licensing Examination). Μπορεί επίσης να κάνει αριθμητική, να απαντήσει σε ερωτήσεις για την φυσική, και να γράψει ποίηση. Αυτά τα συστήματα τεχνητής νοημοσύνης είναι δυνητικά επικίνδυνα εργαλεία στα χέρια των προπαγανδιστών και γίνονται όλο και πιο ισχυρά.
ΚΑΤΑΣΤΡΟΦΕΙΣ ΤΗΣ ΕΜΠΙΣΤΟΣΥΝΗΣ
Θα μπορούσε κανείς εύλογα να αμφισβητήσει την σοβαρότητα της προπαγανδιστικής απειλής που συνιστούν τα γλωσσικά μοντέλα, δεδομένου ότι οι αναλυτές έχουν συχνά υπερτιμήσει τις νέες τεχνολογίες στον τομέα της εθνικής ασφάλειας. Άλλωστε, οι σχολιαστές έχουν προειδοποιήσει [16] ότι οι προηγούμενες γενιές γλωσσικών μοντέλων θα μπορούσαν να γίνουν αντικείμενο κατάχρησης με αυτόν τον τρόπο. Ωστόσο, υπάρχουν ελάχιστες δημόσιες αποδείξεις ότι τα κράτη έχουν οργανώσει επιχειρήσεις επιρροής με τεχνητή νοημοσύνη χρησιμοποιώντας αυτά τα εργαλεία.
Ωστόσο, η απουσία αποδείξεων για τέτοιες εκστρατείες δεν αποτελεί ισχυρή απόδειξη της απουσίας τους. Παρόλο που δεν υπάρχει δημόσια διαθέσιμη απόδειξη ότι τα γλωσσικά μοντέλα έχουν χρησιμοποιηθεί για επιχειρήσεις επιρροής, δεν υπάρχει επίσης απόδειξη ότι δεν έχουν χρησιμοποιηθεί με αυτόν τον τρόπο. Οι ερευνητές της παραπληροφόρησης έχουν μόλις πρόσφατα αρχίσει να δίνουν προσοχή στα γλωσσικά μοντέλα.
Ακόμη και αν υποθέσουμε ότι τα γλωσσικά μοντέλα δεν έχουν χρησιμοποιηθεί σε προηγούμενες εκστρατείες επιρροής, δεν υπάρχει καμία εγγύηση ότι δεν θα χρησιμοποιηθούν σε μελλοντικές εκστρατείες. Μια δημοφιλής τεχνολογία για την δημιουργία προσώπων που δημιουργούνται από AI αναπτύχθηκε για πρώτη φορά το 2014, αλλά μόλις το 2019 οι ερευνητές αποκάλυψαν εικόνες προφίλ που δημιουργήθηκαν από τεχνητή νοημοσύνη σε μια επιχείρηση επιρροής. Το 2022, περισσότερα από τα δύο τρίτα [17] των επιχειρήσεων επιρροής που εντοπίστηκαν και αφαιρέθηκαν από την Meta (την μητρική εταιρία του Facebook) περιλάμβαναν ψεύτικα πρόσωπα. Χρειάστηκε η βελτίωση της τεχνολογίας και η ευκολία της πρόσβασης από τους προπαγανδιστές για να γίνει η χρήση τους συνήθης. Το ίδιο θα μπορούσε να συμβεί και με τα γλωσσικά μοντέλα. Οι εταιρείες επενδύουν στην βελτίωση των αποτελεσμάτων των γλωσσικών μοντέλων και στην ευκολότερη χρήση τους, γεγονός που θα αυξήσει την ελκυστικότητά τους για τους προπαγανδιστές.
Ένας δεύτερος λόγος για να αμφιβάλλουμε ότι τα γλωσσικά μοντέλα αποτελούν σοβαρή απειλή αφορά την αποτελεσματικότητα των προπαγανδιστικών εκστρατειών γενικά. Μια μελέτη [18] σχετικά με τις προσπάθειες της Υπηρεσίας Ερευνών Διαδικτύου στο Twitter που δημοσιεύθηκε από το Nature Communications δεν βρήκε «καμία απόδειξη ουσιαστικής σχέσης μεταξύ της έκθεσης στην εκστρατεία εξωτερικής ρωσικής επιρροής [2016] και των αλλαγών στις στάσεις, την πόλωση, ή την εκλογική συμπεριφορά». Ο γνωστικός επιστήμονας, Hugo Mercier, υποστήριξε ομοίως [19] ότι οι άνθρωποι είναι λιγότερο εύπιστοι από όσο πιστεύεται συνήθως.
Αλλά ακόμη και αν οι προπαγανδιστές συχνά αποτυγχάνουν να πείσουν, μπορούν να καταφέρουν να εκτοπίσουν την γνήσια συζήτηση και να υπονομεύσουν την εμπιστοσύνη του κοινού. Για παράδειγμα, αφότου οι υποστηριζόμενοι από την Ρωσία αυτονομιστές στην Ουκρανία κατέρριψαν την πτήση 17 της Malaysia Airlines τον Ιούλιο του 2014, το Υπουργείο Άμυνας της Ρωσίας προέβη σε αντιφατικούς [20] ισχυρισμούς σχετικά με το ποιος κατέρριψε το αεροπλάνο και πώς το είχε κάνει. Ο στόχος, όπως φαίνεται, δεν ήταν να πεισθεί το κοινό για οποιοδήποτε αφήγημα, αλλά να θολώσει τα νερά και να εκτρέψει τις ευθύνες μακριά από τη Μόσχα. Εάν οι προπαγανδιστές κατακλύζουν τους διαδικτυακούς χώρους με προπαγάνδα που δημιουργείται από την τεχνητή νοημοσύνη, μπορούν να σπείρουν την δυσπιστία και να καταστήσουν δυσκολότερη την διάκριση της αλήθειας. Οι άνθρωποι ίσως να αρχίσουν να μην εμπιστεύονται ακόμη και τις δικές τους παρατηρήσεις, διαβρώνοντας την πίστη τους σε μια διαμοιρασμένη πραγματικότητα.
ΚΡΑΤΗΣΤΕ ΤΟ ΑΛΗΘΙΝΟ
Παρόλο που τα γλωσσικά μοντέλα γίνονται ισχυρά εργαλεία προπαγάνδας, δεν χρειάζεται να οδηγήσουν σε μια πληροφοριακή Αποκάλυψη. Για να εκτελέσουν μια επιτυχημένη εκστρατεία επιρροής με την βοήθεια της τεχνητής νοημοσύνης, οι προπαγανδιστές χρειάζονται τουλάχιστον τρία πράγματα. Πρώτον, χρειάζονται πρόσβαση σε ένα λειτουργικό γλωσσικό μοντέλο, το οποίο θα μπορούσαν να δημιουργήσουν από το μηδέν, να κλέψουν, να κατεβάσουν από ιστότοπους ανοικτού κώδικα, ή να αποκτήσουν πρόσβαση από έναν πάροχο υπηρεσιών ΑΙ. Δεύτερον, χρειάζονται υποδομές, όπως ιστότοπους ή ψεύτικους λογαριασμούς σε δίκτυα κοινωνικής δικτύωσης, για να διαδώσουν την προπαγάνδα τους. Και τέλος, χρειάζονται πραγματικούς ανθρώπους που να επηρεάζονται ή τουλάχιστον να μπερδεύονται ή να απογοητεύονται από το περιεχόμενο που μεταδίδουν [οι προπαγανδιστές]. Σε κάθε στάδιο αυτής της διαδικασίας, οι κυβερνήσεις, οι επιχειρήσεις, και οι τεχνολόγοι έχουν την ευκαιρία να παρέμβουν και να μετριάσουν την ζημιά που προκαλούν τέτοιες εκστρατείες.
Στο στάδιο της πρόσβασης, υπάρχει μια σειρά επιλογών είτε για τον έλεγχο της χρήσης των γλωσσικών μοντέλων είτε για τον περιορισμό της ικανότητάς τους να παράγουν επικίνδυνα αποτελέσματα. Παρόλο που σήμερα αποτελεί κανόνα στην ΑΙ η ευρεία διανομή μοντέλων ανοικτού κώδικα στο πνεύμα της επιστήμης, ίσως θα ήταν συνετό να εξεταστεί ένας κανόνας που θα καθιστά πιο δύσκολη την πρόσβαση στις δυνατότητες που θα απαιτούσε ένας προπαγανδιστής. Ένας τρόπος για να γίνει αυτό θα ήταν ο έλεγχος των μοντέλων πίσω από μια εφαρμογή προγραμματισμού διεπαφών (application programming interface), ένα στρώμα λογισμικού που λειτουργεί ως πύλη μεταξύ των χρηστών και των γλωσσικών μοντέλων, το οποίο θα επέτρεπε στους παρόχους υπηρεσιών ΑΙ (και ενδεχομένως σε άλλους) να αποτρέπουν, να ανιχνεύουν, και να αντιδρούν σε πιθανούς προπαγανδιστές. Μια άλλη επιλογή είναι η ανάπτυξη μοντέλων που είναι πιο ακριβή και λιγότερο πιθανό να παράγουν προβληματικά αποτελέσματα, κάτι που ήδη κάνουν οι ερευνητές. Οι ερευνητές διερευνούν επίσης την δυνατότητα δημιουργίας μοντέλων με ένα ψηφιακό «υδατογράφημα», ώστε να είναι ευκολότερη η αναγνώριση του περιεχομένου που παράγουν.
Σε επίπεδο υποδομής, οι εταιρείες μέσων κοινωνικής δικτύωσης και οι μηχανές αναζήτησης θα μπορούσαν να εργάζονται προληπτικά για τον εντοπισμό περιεχομένου που παράγεται με τεχνητή νοημοσύνη και να απαιτούν από τους χρήστες να κάνουν το ίδιο. Θα μπορούσαν επίσης να καταστήσουν δυνατή την εφαρμογή προτύπων ψηφιακής προέλευσης στο κείμενο, τα οποία θα επέτρεπαν στους ανθρώπους να γνωρίζουν πώς παράχθηκε το κείμενο -για παράδειγμα, ποιος το συνέταξε και αν δημιουργήθηκε από ΑΙ. Παρόλο που τέτοια πρότυπα φαίνεται προς το παρόν δύσκολο να εφαρμοστούν, περισσότερη έρευνα θα μπορούσε να αποκαλύψει μια πορεία προς τα εμπρός.
Τέλος, οι κοινωνίες πρέπει να ενισχύσουν την ανθεκτικότητα των ανυποψίαστων χρηστών των μέσων κοινωνικής δικτύωσης και του Διαδικτύου. Στην Φινλανδία, η παιδεία στα media είναι συνυφασμένη με τα σχολικά προγράμματα σπουδών˙ από νεαρή ηλικία, οι Φινλανδοί μαθαίνουν να αναλύουν τις ειδήσεις που καταναλώνουν και να ελέγχουν τα γεγονότα σε πολλαπλές πηγές. Τέτοιες προσπάθειες μπορούν να βοηθήσουν τους ανθρώπους να διακρίνουν την διαφορά μεταξύ πραγματικών και ψεύτικων ειδήσεων, ώστε να είναι λιγότερο πιθανό να επηρεαστούν από αναξιόπιστο περιεχόμενο, είτε αυτό παράγεται από ανθρώπους είτε από τεχνητή νοημοσύνη. Και η ίδια η τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει άμυνα. Καθώς τα γλωσσικά μοντέλα γίνονται πιο ικανά, θα μπορούσαν να αρχίσουν να βοηθούν τους χρήστες να προσδιορίζουν το περιβάλλον [των πληροφοριών] και ακόμη και να δίνουν νόημα στις πληροφορίες που βλέπουν.
Η άνοδος των γλωσσικών μοντέλων τεχνητής νοημοσύνης απαιτεί ευρύτερο υπολογισμό. Μεταξύ των θεμελιωδών ερωτημάτων που πρέπει να απαντήσουν οι κοινωνίες είναι: Ποιος θα πρέπει να ελέγχει την πρόσβαση σε αυτά τα μοντέλα; Ποιον θέτουν σε κίνδυνο; Και είναι καν επιθυμητή η μίμηση του ανθρώπινου διαλόγου με τεχνητή νοημοσύνη; Αν και οι επιπτώσεις των μελλοντικών γλωσσικών μοντέλων είναι δύσκολο να προβλεφθούν, είναι σαφές ότι θα γίνουν αισθητές πολύ πέρα από τα εργαστήρια τεχνητής νοημοσύνης που τα δημιουργούν. Έτσι, οι κυβερνήσεις, οι επιχειρήσεις, η κοινωνία των πολιτών, και το ευρύ κοινό θα πρέπει όλοι να έχουν λόγο στον τρόπο με τον οποίο σχεδιάζονται και χρησιμοποιούνται αυτά τα μοντέλα -και στον τρόπο διαχείρισης των πιθανών κινδύνων που εγκυμονούν.
Σύνδεσμοι:
[1] https://arxiv.org/abs/2301.04246
[2] https://www.foreignaffairs.com/articles/world/2018-12-11/deepfakes-and-n…
[3] https://arxiv.org/pdf/1802.07228.pdf
[4] https://www.foreignaffairs.com/articles/world/2018-06-14/tech-world
[5] https://www.foreignaffairs.com/world/spirals-delusion-artificial-intelli…
[6] https://www.quantamagazine.org/the-unpredictable-abilities-emerging-from…
[7] https://arxiv.org/abs/2202.03629
[8] https://www.fontanka.ru/2022/03/21/70522490/
[9] https://www.foreignaffairs.com/articles/russia-fsu/2014-12-24/putins-pro…
[10] https://cset.georgetown.edu/publication/truth-lies-and-automation/
[11] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4358982
[12] https://journals.sagepub.com/doi/10.1177/0894439320914853
[13] https://www.tandfonline.com/doi/full/10.1080/10584609.2020.1718257
[14] https://arxiv.org/pdf/2209.06899.pdf
[15] https://www.science.org/doi/10.1126/science.ade9097
[16] https://openai.com/blog/better-language-models/
[17] https://about.fb.com/news/2022/12/metas-2022-coordinated-inauthentic-beh…
[18] https://www.nature.com/articles/s41467-022-35576-9
[19] https://www.amazon.com/Not-Born-Yesterday-Science-Believe/dp/0691178704
[20] https://foreignpolicy.com/2016/09/29/how-mh17-gave-birth-to-the-modern-r…
Copyright © 2023 by the Council on Foreign Relations, Inc.
All rights reserved.
Πηγή: foreignaffairs.gr