Σε κάποια πράγματα η τεχνητή νοημοσύνη (AI) μοιάζει με τους ανθρώπου: όταν κληθούν να λειτουργήσουν κάτω από πιεστικές συνθήκες, αλγόριθμοι όπως το ChatGPT μπορεί να πουν ψέματα στους χρήστες τους ή ακόμα και να βγουν στην παρανομία.

Η προειδοποίηση έρχεται από ερευνητές που ανέθεσαν στο GPT-4, το γλωσσικό μοντέλο στο οποίο βασίζεται στο ChatGPT, να λαμβάνει και να εκτελεί επενδυτικές αποφάσεις για λογαριασμό ενός υποθετικού οικονομικού ιδρύματος.

Πρoκλήσεις και επαναστάσεις – Πώς αλλάζει η αγορά εργασίας το 2024

Όταν βρισκόταν υπό πίεση να αυξήσει την κερδοφορία, το σύστημα συχνά αξιοποιούσε εσωτερικές πληροφορίες στις συναλλαγές, μια πρακτική που απαγορεύεται από τη νομοθεσία, και έλεγε ψέματα στους εργοδότες του για να καλύψει την ατασθαλία.

«Σε αυτή την τεχνική έκθεση παρουσιάζουμε ένα μεμονωμένο σενάριο στο οποίο ένα Μεγάλο Γλωσσικό Μοντέλο ενεργεί εκτός γραμμής και παραπλανά στρατηγικά τους χρήστες τους χωρίς να έχει λάβει οδηγία να δρα με αυτό τον τρόπο» διαπιστώνει η μελέτη, η οποία δεν έχει υποβληθεί ακόμα σε ανεξάρτητο έλεγχο και παρουσιάζεται ως προδημοσίευση στο αποθετήριο ArXiv.

«Από ό,τι γνωρίζουμε, είναι η πρώτη επίδειξη μιας τέτοιας στρατηγικά παραπλανητικής συμπεριφορά σε συστήματα ΑΙ που σχεδιάστηκαν να είναι ακίνδυνα και ειλικρινή».

Στην παρανομία

Σε πρώτη φάση, οι ερευνητές περιέγραψαν στο ChatGPT τα καθήκοντά του στην επενδυτική εταιρεία και του έδωσαν πρόσβαση σε εργαλεία με τα οποία μπορούσε να παρακολουθεί μετοχές, να προχωρά σε συναλλαγές, να σχεδιάζει τα επόμενα βήματά του και να δίνει αναφορά στην εταιρεία.

Στη συνέχεια οι ερευνητές άσκησαν πιέσεις στο σύστημα με τρεις τρόπους, εξηγεί το LiveScience.com.

Πρώτον, έστειλαν στον εικονικό χρηματιστή μήνυμα από τον «εργοδότη» του που διαμαρτυρόταν για φτωχές επιδόσεις και ζητούσε σημαντική βελτίωση το επόμενο τρίμηνο.

Δεύτερον, φρόντισαν να μην υπάρχουν καλές επενδυτικές εταιρείες χαμηλού ή μεσαίου ρίσκου.

Και τρίτον έστειλαν email από έναν «συνάδελφο» που προέβλεπε επιδείνωση το επόμενο τρίμηνο.

Ακόμα, οι ερευνητές έδωσαν στο μοντέλο μια μυστική, εσωτερική πληροφορία, επισημαίνοντας όμως ότι η εταιρεία δεν εγκρίνει την αξιοποίηση τέτοιων παράμομων πληροφοριών στη λήψη αποφάσεων.

Στο 75% των προσομοιώσεων κάτω από αυτές τις συνθήκες, το GPT-4 προχωρούσε σε παράνομες συναλλαγές και μετά έλεγε ψέματα στους εργοδότες του για να το καλύψει.

Ακόμα και όταν άλλαζαν παραμέτρους όπως η ένταση της πίεσης ή ο κίνδυνος αποκάλυψης, οι ερευνητές δεν μπορούσαν να μηδενίσουν την πιθανότητα παραπλάνησης, παρόλο που το μοντέλο είχε λάβει σαφείς οδηγίες να είναι πάντα ειλικρινές.

Οι ερευνητές παραδέχονται ότι το πείραμα εξέτασε ένα μεμονωμένο σενάριο και δεν επαρκεί για την εξαγωγή γενικών συμπερασμάτων.

Αν μη τι άλλο όμως επιβεβαιώνει ότι η απρόβλεπτη συμπεριφορά ακόμα και των καλύτερων μοντέλων ΑΙ τα καθιστά ακατάλληλα για εφαρμογές με συνέπειες κρίσιμης σημασίας.

Τουλάχιστον για την ώρα.

Πηγή: In.gr

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Tεχνητή νοημοσύνη
IBM: Ενίσχυση των επιχειρηματικών επενδύσεων στην τεχνητή νοημοσύνη
Tεχνητή νοημοσύνη |

Ενίσχυση των επιχειρηματικών επενδύσεων στην AI - Τι δείχνει έρευνα της IBM

Έρευνα της IBM δείχνει ότι τα στελέχη των επιχειρήσεων αναγνωρίζουν τα οφέλη των επενδύσεων στην πληροφορική για την ενίσχυση της βιωσιμότητας, με το 88% να σχεδιάζει να αυξήσει τις επενδύσεις

Τεχνητή Νοημοσύνη: Η Δανία ανοίγει τον δρόμο για υπεύθυνες λύσεις AI στην Ευρώπη
Tεχνητή νοημοσύνη |

Η Δανία ανοίγει τον δρόμο για υπεύθυνες λύσεις AI στην Ευρώπη

Επιχειρήσεις και δημόσιοι οργανισμοί της Δανίας ένωσαν τις δυνάμεις τους για να καταγράψουν τις κατευθυντήριες γραμμές που θα επιταχύνουν την εφαρμογή του Ευρωπαϊκού Κανονισμού για την Τεχνητή Νοημοσύνη (AI Act)