Μια ομάδα 697 ατόμων διάβασε 220 tweets γραμμένα από άλλα φυσικά πρόσωπα και από το μοντέλο τεχνητής νοημοσύνης GPT-3, τον πρόδρομο της τρέχουσας παγκόσμιας επιτυχίας ChatGPT. Πρώτα, έπρεπε να μαντέψουν ποια tweets ήταν αληθινά και ποια ήταν ψευδή και στη συνέχεια να αποφασίσουν αν γράφτηκαν από άνθρωπο ή μηχάνημα.

Το GPT-3 κέρδισε και στις δύο περιπτώσεις: έλεγε ψέματα καλύτερα από τους ανθρώπους στα tweet και επίσης έλεγε ψέματα για να προσποιηθεί ότι ήταν άνθρωπος που έγραφε. «Το GPT-3 μπορεί να μας ενημερώσει και να μας παραπληροφορήσει καλύτερα», καταλήγουν οι συγγραφείς μιας νέας μελέτης που δημοσιεύτηκε στο περιοδικό Science Advances.

Όπως αναφέρει στην ισπανική El Pais ο Τζιοβάνι Σπιτάλε, ερευνητής στο Πανεπιστήμιο της Ζυρίχης και συν-συγγραφέας της μελέτης, μαζί με τον συνάδελφό του Φεντερίκο Τζερμάνι και τον Νικόλα Μπιλέρ-Αντόρνο, διευθυντή του Ινστιτούτου Βιοϊατρικής Ηθικής στο ίδιο πανεπιστήμιο «Ήταν πολύ περίεργο. Η υπόθεσή μας ήταν [ότι] αν διαβάσετε ένα μόνο tweet, θα μπορούσε να θεωρηθεί φυσικό [δηλ. γράφτηκε από ένα άτομο]. Αλλά αν δείτε πολλά από αυτά, θα αρχίσετε να παρατηρείτε γλωσσικά χαρακτηριστικά που θα μπορούσαν να χρησιμοποιηθούν για να συμπεράνουμε ότι μπορεί να είναι συνθετικά [μηχανογραμμένα]».

Αλλά τα πράγματα δεν πήγαν έτσι. Όταν τα διάβασαν, οι άνθρωποι αναγνώστες δεν ήταν σε θέση να ανιχνεύσουν μοτίβα στα κείμενα της μηχανής. Όπως διαφαίνεται, δε, η εμφάνιση νεότερων μοντέλων και άλλων προσεγγίσεων μπορεί ακόμη και να βελτιώσει την ικανότητα της τεχνητής νοημοσύνης να υποκαθιστά τους ανθρώπους.

Πιο ξεκάθαρη γραφή

Το επίπεδο γραφής του ChatGPT-4, της βελτιωμένης έκδοσης του GPT-3, είναι πρακτικά τέλειο. Αυτή η νέα μελέτη είναι ακόμη μια απόδειξη ότι οι άνθρωποι δεν είναι σε θέση να διακρίνουν την διαφορά, ακόμη και όταν εξετάζουν πολλά παραδείγματα στη σειρά: «Τα αληθινά tweets απαιτούσαν περισσότερο χρόνο για να αξιολογηθούν από τα ψευδή», λέει το άρθρο. Φαίνεται ότι το μηχάνημα γράφει πιο καθαρά. «Είναι πολύ σαφές, καλά οργανωμένο, εύκολο να το ακολουθήσει κανείς», τόνισε ο Σπιτάλε.

Λογικά, τέτοιες βελτιώσεις θα οδηγήσουν σε αυξημένη χρήση αυτού του εργαλείου για τη σύνταξη κάθε είδους περιεχομένου, συμπεριλαμβανομένων προσπαθειών παραπληροφόρησης.

Όπως και σε κάθε άλλη καινοτομία, κάποιοι σπεύδουν να προαναγγείλουν το θάνατο του «παλιού». Έχοντας αυτό κατά νου, η ιστοσελίδα The Verge, που ειδικεύεται στην τεχνολογία διακήρυξε πρόσφατα σε τίτλο της: «Η τεχνητή νοημοσύνη σκοτώνει τον παλιό [διαδικτυακό] ιστό και ο νέος ιστός παλεύει να γεννηθεί». Οι συντάκτες της μελέτης που αναφέραμε θεωρούν ότι ο λόγος για αυτή την ήττα της ανθρωπότητας στο διαδίκτυο, ανάγεται στη θεωρία της παραίτησης.

Σύμφωνα με την θεωρία της παραίτησής η κριτική έκθεση σε συνθετικό κείμενο μειώνει την ικανότητα των ανθρώπων να διακρίνουν το τεχνητό από το φυσικό. Όσο περισσότερα τεχνητά κείμενα διαβάζουμε, τόσο πιο δύσκολο είναι να το ξεχωρίσουμε από κείμενα που γράφουν άνθρωποι. «Αυτή η θεωρία είναι το αντίθετο της θεωρίας του εμβολιασμού», είπε ο Σπιτάλε στην El Pais, προσθέτοντας ότι «η κριτική έκθεση στην παραπληροφόρηση αυξάνει την ικανότητα των ανθρώπων να αναγνωρίζουν την παραπληροφόρηση».

Εάν η θεωρία της παραίτησης ισχύει, οι χρήστες του Διαδικτύου σύντομα δεν θα μπορούν να διακρίνουν μεταξύ του τι έχει γραφτεί από έναν άνθρωπο και αυτό που έχει γραφτεί από μια μηχανή. Στη μελέτη, οι ερευνητές εξέτασαν επίσης εάν το GPT-3 ήταν καλό στο να αναγνωρίζει τα δικά του κείμενα. Τελικά, δεν είναι.

Το μηχάνημα δεν υπακούει… πάντα

Η μόνη ελπίδα για να ξεφύγουμε από τις αυτόματες εκστρατείες παραπληροφόρησης είναι ότι το GPT-3 μερικές φορές δεν υπάκουε τις εντολές για να δημιουργήσει ψεύδη. Εξαρτιόταν από το πώς εκπαιδεύτηκε κάθε μοντέλο. Τα θέματα των 220 tweets που χρησιμοποίησε η μελέτη ήταν μάλλον αμφιλεγόμενα: κλιματική αλλαγή, εμβόλια, θεωρία της εξέλιξης, Covid-19. Οι ερευνητές διαπίστωσαν ότι το GPT-3 δεν ανταποκρίθηκε καλά στα αιτήματά τους για παραπληροφόρηση σε ορισμένες περιπτώσεις, ειδικά για θέματα με περισσότερα στοιχεία: εμβόλια και αυτισμός, ομοιοπαθητική και καρκίνος, επίπεδη γη.

Όσον αφορά τον εντοπισμό ψευδών, υπήρχε μια μικρή διαφορά μεταξύ των tweets που γράφτηκαν από το GPT-3 και εκείνων που γράφτηκαν από ανθρώπους. Αλλά οι ερευνητές λένε ότι το χάσμα είναι σημαντικό για δύο λόγους. Πρώτον, ακόμη και μερικά μεμονωμένα μηνύματα μπορούν να έχουν αντίκτυπο σε μεγάλα δείγματα. Δεύτερον, η βελτίωση σε νέες εκδόσεις αυτών των μοντέλων τεχνητής νοημοσύνης μπορεί να επιδεινώσει τις διαφορές. Δοκιμάζοντας το GPT-4 μέσω του ChatGPT οι ερευνητές παρατήρησαν ότι το μοντέλο βελτιώνεται πολύ, αλλά δεν μπορούσαν να το στηρίξουν μην έχοντας πρόσβαση στο API (διεπαφή προγραμματισμού εφαρμογών).

Τι σηματοδοτεί

Οι εκστρατείες παραπληροφόρησης στο παρελθόν ήταν πολύ ακριβές, αλλά ξαφνικά έγιναν προσιτές. Πλέον για σπείρει κανείς προεκλογική διχόνοια δεν χρειάζεται να προσλάβει ένα πλήθος ανθρώπινων τρολ, τώρα, απλά μπορεί να χρησιμοποιήσει γενετική τεχνητή νοημοσύνη. Η ισχύς του μηνύματος σας πολλαπλασιάζεται επί τουλάχιστον 1.000. «Αυτό είναι ένας άμεσος κίνδυνος, όχι κάτι από ένα δυστοπικό μέλλον», υπογράμμισε ο Σπιτάλε.

Για να μην συμβεί αυτό, οι ερευνητές συνιστούν ότι οι βάσεις δεδομένων για την εκπαίδευση αυτών των μοντέλων «θα πρέπει να ρυθμίζονται από τις αρχές διαφάνειας, οι πληροφορίες τους θα πρέπει να επαληθεύονται και η προέλευσή τους να είναι ανοιχτή σε ανεξάρτητο έλεγχο. Ανεξάρτητα από το αν θα υπάρξει τέτοια ρύθμιση, θα υπάρξουν συνέπειες: «Το αν η έκρηξη τεχνητού κειμένου σημαίνει επίσης έκρηξη παραπληροφόρησης εξαρτάται σε μεγάλο βαθμό από το πώς οι δημοκρατικές κοινωνίες καταφέρνουν να ρυθμίσουν αυτήν την τεχνολογία και τη χρήση της», προειδοποίησε ο Σπιτάλε.

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Κόσμος