Project Syndicate
Αν η δουλειά του Βρετανού επιστήμονα υπολογιστών Άλαν Τούρινγκ για τις «μηχανές σκέψης» ήταν το prequel σε αυτό που σήμερα ονομάζουμε τεχνητή νοημοσύνη, το μπεστ σέλερ Thinking, Fast and Slow του αείμνηστου ψυχολόγου Daniel Kahneman μπορεί να είναι η συνέχεια, δεδομένης της γνώσης του πώς σκεφτόμαστε οι ίδιοι. Η κατανόηση του «εμείς» θα είναι ζωτικής σημασίας για τη ρύθμιση «αυτών».
Αυτή η προσπάθεια έχει περάσει γρήγορα στην κορυφή της ατζέντας των υπευθύνων χάραξης πολιτικής. Στις 21 Μαρτίου, τα Ηνωμένα Έθνη υιοθέτησαν ομόφωνα ένα ψήφισμα ορόσημο (με επικεφαλής τις Ηνωμένες Πολιτείες) καλώντας τη διεθνή κοινότητα «να κυβερνήσει αυτήν την τεχνολογία αντί να την αφήσει να μας κυβερνήσει».
Και αυτό ήρθε μετά τον νόμο AI της Ευρωπαϊκής Ένωσης και τη Διακήρυξη Bletchley για την ασφάλεια της τεχνητής νοημοσύνης, την οποία υπέγραψαν περισσότερες από 20 χώρες (οι περισσότερες προηγμένες οικονομίες) τον περασμένο Νοέμβριο. Επιπλέον, οι προσπάθειες σε επίπεδο χώρας συνεχίζονται, συμπεριλαμβανομένων των ΗΠΑ, όπου ο Πρόεδρος Τζο Μπάιντεν έχει εκδώσει εκτελεστικό διάταγμα για την «ασφαλή, και αξιόπιστη ανάπτυξη και χρήση» της τεχνητής νοημοσύνης.
Αυτές οι προσπάθειες είναι μια απάντηση στον αγώνα εξοπλισμών AI που ξεκίνησε με τη δημόσια κυκλοφορία του ChatGPT από το OpenAI στα τέλη του 2022. Η βασική ανησυχία είναι το ολοένα και πιο γνωστό «πρόβλημα ευθυγράμμισης»: το γεγονός ότι οι στόχοι μιας τεχνητής νοημοσύνης και τα επιλεγμένα μέσα για την επιδίωξή τους μπορεί να μην σέβονται ή ακόμα και να μην είναι συμβατά με εκείνα των ανθρώπων. Τα νέα εργαλεία τεχνητής νοημοσύνης έχουν επίσης τη δυνατότητα να επιτρέπουν την κατάχρηση από κακούς παράγοντες (από απατεώνες μέχρι προπαγανδιστές), να εμβαθύνουν και να ενισχύσουν προϋπάρχουσες μορφές διακρίσεων και μεροληψίας, να παραβιάσουν το απόρρητο και να εκτοπίσουν εργαζομένους.
Η πιο ακραία μορφή του προβλήματος ευθυγράμμισης είναι ο υπαρξιακός κίνδυνος που δημιουργείται από την τεχνητή νοημοσύνη. Τα διαρκώς εξελισσόμενα AI που μπορούν να διδάξουν τον εαυτό τους θα μπορούσαν να γίνουν απατεώνες και να αποφασίσουν να δημιουργήσουν μια οικονομική κρίση, να επηρεάσουν τις εκλογές ή ακόμα και να δημιουργήσουν ένα βιολογικό όπλο.
Όμως, ένα αναπάντητο ερώτημα αποτελεί τη βάση της θέσης της τεχνητής νοημοσύνης ως πιθανής υπαρξιακής απειλής: Με ποιες ανθρώπινες αξίες πρέπει να ευθυγραμμιστεί η τεχνολογία; Θα έπρεπε να είναι φιλοσοφικά ωφελιμιστικό (κατά την παράδοση των John Stuart Mill και Jeremy Bentham), ή δεοντολογικό (στην παράδοση του Emmanuel Kant και του John Rawls); Θα έπρεπε να είναι πολιτιστικά ΠΕΡΙΕΡΓΟ (Δυτικό, μορφωμένο, βιομηχανοποιημένο, πλούσιο, δημοκρατικό) ή μη ΠΑΡΑΞΕΝΟ; Πρέπει να είναι πολιτικά συντηρητικό ή φιλελεύθερο; Θα έπρεπε να είναι σαν εμάς ή να είναι καλύτερο από εμάς;
Αυτά τα ερωτήματα δεν είναι απλώς υποθετικά. Έχουν ήδη βρεθεί στο επίκεντρο των πραγματικών συζητήσεων, συμπεριλαμβανομένων εκείνων που ακολούθησαν την κυκλοφορία ενός ρατσιστή, μισογυνιστή, υπερσεξουαλικού chatbot από τη Microsoft το 2016. Ο παράξενα χειριστικός, σαγηνευτικός Σίδνεϊ του Bing (που προσπάθησε να πείσει έναν ρεπόρτερ τεχνολογίας να αφήσει τη γυναίκα του) και, πιο πρόσφατα, ο Gemini της Google, του οποίου ο «ξύπνιος» χαρακτήρας την οδήγησε να δημιουργήσει ιστορικά παράλογα αποτελέσματα όπως εικόνες μαύρων στρατιωτών των Ναζί.
Ευτυχώς, οι σύγχρονες κοινωνίες έχουν επινοήσει έναν μηχανισμό που επιτρέπει σε διαφορετικές ηθικές φυλές να συνυπάρχουν: το κράτος δικαίου. Όπως έχω σημειώσει σε προηγούμενα σχόλια, το δίκαιο, ως θεσμός, αντιπροσωπεύει την αποθέωση της συνεργασίας. Η εμφάνισή του ήταν μια βαθιά ανακάλυψη μετά από αιώνες ανθρωπότητας που αγωνίστηκε να λύσει το δικό της πρόβλημα ευθυγράμμισης: πώς να οργανώσει τη συλλογική δράση.
Γνωστικά, το δίκαιο αντιπροσώπευε μια ριζοσπαστική νέα τεχνολογία. Μόλις εσωτερικεύτηκε, ευθυγράμμισε την ατομική δράση με την κοινοτική συναίνεση. Ο νόμος τηρούνταν ως νόμος, ανεξάρτητα από την υποκειμενική κρίση ενός ατόμου για οποιονδήποτε δεδομένο κανόνα. Αρκετοί εξέχοντες φιλόσοφοι έχουν καταφύγει σε αυτό το μοναδικό χαρακτηριστικό. Ο νομικός θεωρητικός του εικοστού αιώνα HLA Hart περιέγραψε το δίκαιο ως έναν μηχανισμό που επιτρέπει τη διαμόρφωση των κανόνων αλλάζοντας τις υποκείμενες μετα-νόρμες συμπεριφοράς.
Πιο πρόσφατα, ο Ronald Dworkin χαρακτήρισε το δίκαιο με όρους «ακεραιότητας», επειδή ενσωματώνει τους κανόνες ολόκληρης της κοινότητας, αντί να μοιάζει με «σκακιέρα». Εάν το δίκαιο ήταν ένα συνονθύλευμα, θα μπορούσε να αντιπροσωπεύει καλύτερα μεμονωμένες εκλογικές ομάδες πεποιθήσεων και απόψεων, αλλά σε βάρος της συνοχής. Ο νόμος λοιπόν χρησιμεύει ως κουμπί παράκαμψης έναντι της ατομικής ανθρώπινης συμπεριφοράς. Απορροφά πολύπλοκες συζητήσεις για τα ήθη και τις αξίες και τις μετατρέπει σε δεσμευτικούς κανόνες.
Το μεγαλύτερο μέρος της τρέχουσας συζήτησης σχετικά με την τεχνητή νοημοσύνη και τη νομοθεσία επικεντρώνεται στο πώς η τεχνολογία μπορεί να αμφισβητήσει τα κυρίαρχα ρυθμιστικά παραδείγματα. Μια ανησυχία είναι το «φαινόμενο της κόκκινης βασίλισσας» (μια νύξη στην Αλίκη στη Χώρα των Θαυμάτων), το οποίο περιγράφει την εγγενή δυσκολία διατήρησης της τρέχουσας ρύθμισης με μια τεχνολογία που κινείται γρήγορα. Ένα άλλο ζήτημα είναι η πρόκληση της ρύθμισης μιας πραγματικά παγκόσμιας τεχνολογίας σε εθνικό επίπεδο. Και μετά υπάρχει το τέρας του Φρανκενστάιν πρόβλημα μιας νέας τεχνολογίας που αναπτύσσεται σε μεγάλο βαθμό από μερικές εταιρείες του ιδιωτικού τομέα των οποίων οι προτεραιότητες (κέρδη) διαφέρουν από εκείνες του κοινού.
Είναι πάντα δύσκολο να επιτευχθεί η σωστή ισορροπία μεταξύ της προώθησης της καινοτομίας και του μετριασμού των δυνητικά τεράστιων κινδύνων που συνδέονται με μια νέα τεχνολογία. Καθώς η τεχνητή νοημοσύνη αναμένεται να αλλάξει όλο και περισσότερο την ίδια τη νομική πρακτική, μπορεί ο νόμος να αλλάξει ακόμα την τροχιά της τεχνητής νοημοσύνης; Πιο συγκεκριμένα, εάν οι «μηχανές σκέψης» είναι ικανές να μαθαίνουν, μπορούν να μάθουν να υπακούουν στο νόμο;
Καθώς οι τεχνολογικοί γίγαντες σπεύδουν να επιδιώξουν την τεχνητή γενική νοημοσύνη – μοντέλα που μπορούν να ξεπεράσουν τους ανθρώπους σε οποιαδήποτε γνωστική εργασία – το πρόβλημα του «μαύρου κουτιού» της τεχνητής νοημοσύνης παραμένει. Ούτε οι δημιουργοί της τεχνολογίας γνωρίζουν πώς ακριβώς λειτουργεί.
Δεδομένου ότι οι προσπάθειες να εκχωρηθεί η τεχνητή νοημοσύνη σε μια «αντικειμενική λειτουργία» θα μπορούσαν να προκαλέσουν ακούσιες συνέπειες (για παράδειγμα, μια τεχνητή νοημοσύνη που έχει επιφορτιστεί με την κατασκευή συνδετήρων θα μπορούσε να αποφασίσει ότι η εξάλειψη της ανθρωπότητας είναι απαραίτητη για τη μεγιστοποίηση της παραγωγής της), θα χρειαστούμε μια πιο εξελιγμένη προσέγγιση.
Για το σκοπό αυτό, θα πρέπει να μελετήσουμε τη γνωστική εξέλιξη που επέτρεψε στις ανθρώπινες κοινωνίες να αντέξουν για όσο διάστημα έχουν. Το εάν οι ανθρώπινοι νόμοι μπορούν να επιβληθούν ως περιορισμός σχεδιασμού (ίσως με τους φύλακες της τεχνητής νοημοσύνης να παίζουν το ρόλο των διακοπτών, το αντίστοιχο των αξιωματικών επιβολής του νόμου στις ανθρώπινες κοινωνίες) είναι ένα ερώτημα για τους μηχανικούς. Αλλά αν μπορεί να γίνει, μπορεί να αντιπροσωπεύει τη σωτηρία μας.
Μέσω του νόμου, μπορούμε να απαιτήσουμε από την τεχνητή νοημοσύνη να πληρώσει το τίμημα της εισδοχής στην κοινωνία μας: την υπακοή στον συλλογικό κώδικα δεοντολογίας μας. Εάν τα νευρωνικά δίκτυα τεχνητής νοημοσύνης μιμούνται τον εγκέφαλό μας και ο νόμος είναι, όπως πιστεύεται ευρέως, ένα σε μεγάλο βαθμό γνωστικό φαινόμενο, αυτό θα πρέπει να είναι δυνατό. Εάν όχι, το πείραμα θα ρίξει τουλάχιστον φως στον ρόλο των συναισθηματικών και κοινωνικών παραγόντων στη διατήρηση του ανθρώπινου νόμου. Αν και μπορεί να χρειαστεί να επανεξετάσουμε και να βελτιώσουμε ορισμένα στοιχεία της υπάρχουσας νομοθεσίας, αυτή η προοπτική τουλάχιστον μας αναγκάζει να εξετάσουμε τις κρίσιμες διαφορές μεταξύ «εμείς» και «αυτοί». Εκεί πρέπει να ξεκινήσουν οι προσπάθειές μας για τη ρύθμιση της τεχνητής νοημοσύνης.
Η Antara Haldar, Αναπληρώτρια Καθηγήτρια Εμπειρικών Νομικών Σπουδών στο Πανεπιστήμιο του Κέιμπριτζ, είναι επισκέπτρια στο Πανεπιστήμιο του Χάρβαρντ και η κύρια ερευνήτρια για μια επιχορήγηση του Ευρωπαϊκού Συμβουλίου Έρευνας για το δίκαιο και τη γνώση.
Latest News
Ψηφιακή έκδοση και διαβίβαση παραστατικών διακίνησης (Ε’ Μέρος)
Τι θα πρέπει να γνωρίζουν οι επιχειρήσεις
Η Ελλάδα και η μεγάλη ευκαιρία της Νέας Εποχής του Υδρογόνου
H Ελλάδα μπορεί και πρέπει να αδράξει τη μοναδική ευκαιρία να πρωταγωνιστήσει στον αναδυόμενο τομέα του υδρογόνου
Η δημογραφική εικόνα της Θεσσαλίας
Η Θεσσαλία δεν βρίσκεται στην πλέον δυσμενή δημογραφικά θέση συγκρινόμενη με τις λοιπές ελληνικές Περιφέρειες
Ο παράδεισος των θεσμών και η επί γης Ελλάδα
Και μια λέξη: γιατί;
Oι πολιτικές εξελίξεις επιβάρυναν το ταμπλό του Χρηματιστηρίου Αθηνών
Πώς αντέδρασε το Χρηματιστήριο Αθηνών στις πολιτικές εξελίξεις - Οι επενδυτές καλούνται να επιστρατεύσουν την υπομονή τους
Αποζημίωση δανειολήπτη με αναπηρία εξαιτίας καταχρηστικής πρακτικής
Η δικαστική απόφαση που αποτελεί σημαντικό νομικό προηγούμενο στην προστασία των δικαιωμάτων δανειοληπτών και ασθενών
Αναζητώντας την ουσία της Βιωσιμότητας πάνω στην Αχνή Γαλάζια Κουκίδα
Οι παγκόσμιες προκλήσεις της βιωσιμότητας ασκούν πιέσεις στην οικονομία και το επιχειρηματικό περιβάλλον, αλλά ταυτόχρονα ανοίγουν ευκαιρίες για ανάπτυξη και καινοτομία
Η αγορά κρυπτονομισμάτων μαγνητίζει τα βλέμματα
Ο νέος Πρόεδρος των ΗΠΑ αναμένεται να αλλάξει τα πράγματα στα κρυπτονομίσματα
Πώς υπολογίζεται η Υπεύθυνη Καινοτομία;
Μια επιτυχημένη υπεύθυνη καινοτομία συνιστά de facto μια θετική πρόοδο. Παρέχει προστιθέμενη αξία όσον αφορά τον κοινωνικό αντίκτυπο και τη βιώσιμη ανάπτυξη
Ο γερμανικός κίνδυνος
Η αυξανόμενη ανεργία και η δημοσιονομική αμηχανία έπεισαν τελικά την κεντροαριστερή κυβέρνηση της εποχής να προχωρήσει σε ένα κύμα μεταρρυθμίσεων υπέρ της ανάπτυξης