Project Syndicate
Αν η δουλειά του Βρετανού επιστήμονα υπολογιστών Άλαν Τούρινγκ για τις «μηχανές σκέψης» ήταν το prequel σε αυτό που σήμερα ονομάζουμε τεχνητή νοημοσύνη, το μπεστ σέλερ Thinking, Fast and Slow του αείμνηστου ψυχολόγου Daniel Kahneman μπορεί να είναι η συνέχεια, δεδομένης της γνώσης του πώς σκεφτόμαστε οι ίδιοι. Η κατανόηση του «εμείς» θα είναι ζωτικής σημασίας για τη ρύθμιση «αυτών».
Αυτή η προσπάθεια έχει περάσει γρήγορα στην κορυφή της ατζέντας των υπευθύνων χάραξης πολιτικής. Στις 21 Μαρτίου, τα Ηνωμένα Έθνη υιοθέτησαν ομόφωνα ένα ψήφισμα ορόσημο (με επικεφαλής τις Ηνωμένες Πολιτείες) καλώντας τη διεθνή κοινότητα «να κυβερνήσει αυτήν την τεχνολογία αντί να την αφήσει να μας κυβερνήσει».
Και αυτό ήρθε μετά τον νόμο AI της Ευρωπαϊκής Ένωσης και τη Διακήρυξη Bletchley για την ασφάλεια της τεχνητής νοημοσύνης, την οποία υπέγραψαν περισσότερες από 20 χώρες (οι περισσότερες προηγμένες οικονομίες) τον περασμένο Νοέμβριο. Επιπλέον, οι προσπάθειες σε επίπεδο χώρας συνεχίζονται, συμπεριλαμβανομένων των ΗΠΑ, όπου ο Πρόεδρος Τζο Μπάιντεν έχει εκδώσει εκτελεστικό διάταγμα για την «ασφαλή, και αξιόπιστη ανάπτυξη και χρήση» της τεχνητής νοημοσύνης.
Αυτές οι προσπάθειες είναι μια απάντηση στον αγώνα εξοπλισμών AI που ξεκίνησε με τη δημόσια κυκλοφορία του ChatGPT από το OpenAI στα τέλη του 2022. Η βασική ανησυχία είναι το ολοένα και πιο γνωστό «πρόβλημα ευθυγράμμισης»: το γεγονός ότι οι στόχοι μιας τεχνητής νοημοσύνης και τα επιλεγμένα μέσα για την επιδίωξή τους μπορεί να μην σέβονται ή ακόμα και να μην είναι συμβατά με εκείνα των ανθρώπων. Τα νέα εργαλεία τεχνητής νοημοσύνης έχουν επίσης τη δυνατότητα να επιτρέπουν την κατάχρηση από κακούς παράγοντες (από απατεώνες μέχρι προπαγανδιστές), να εμβαθύνουν και να ενισχύσουν προϋπάρχουσες μορφές διακρίσεων και μεροληψίας, να παραβιάσουν το απόρρητο και να εκτοπίσουν εργαζομένους.
Η πιο ακραία μορφή του προβλήματος ευθυγράμμισης είναι ο υπαρξιακός κίνδυνος που δημιουργείται από την τεχνητή νοημοσύνη. Τα διαρκώς εξελισσόμενα AI που μπορούν να διδάξουν τον εαυτό τους θα μπορούσαν να γίνουν απατεώνες και να αποφασίσουν να δημιουργήσουν μια οικονομική κρίση, να επηρεάσουν τις εκλογές ή ακόμα και να δημιουργήσουν ένα βιολογικό όπλο.
Όμως, ένα αναπάντητο ερώτημα αποτελεί τη βάση της θέσης της τεχνητής νοημοσύνης ως πιθανής υπαρξιακής απειλής: Με ποιες ανθρώπινες αξίες πρέπει να ευθυγραμμιστεί η τεχνολογία; Θα έπρεπε να είναι φιλοσοφικά ωφελιμιστικό (κατά την παράδοση των John Stuart Mill και Jeremy Bentham), ή δεοντολογικό (στην παράδοση του Emmanuel Kant και του John Rawls); Θα έπρεπε να είναι πολιτιστικά ΠΕΡΙΕΡΓΟ (Δυτικό, μορφωμένο, βιομηχανοποιημένο, πλούσιο, δημοκρατικό) ή μη ΠΑΡΑΞΕΝΟ; Πρέπει να είναι πολιτικά συντηρητικό ή φιλελεύθερο; Θα έπρεπε να είναι σαν εμάς ή να είναι καλύτερο από εμάς;
Αυτά τα ερωτήματα δεν είναι απλώς υποθετικά. Έχουν ήδη βρεθεί στο επίκεντρο των πραγματικών συζητήσεων, συμπεριλαμβανομένων εκείνων που ακολούθησαν την κυκλοφορία ενός ρατσιστή, μισογυνιστή, υπερσεξουαλικού chatbot από τη Microsoft το 2016. Ο παράξενα χειριστικός, σαγηνευτικός Σίδνεϊ του Bing (που προσπάθησε να πείσει έναν ρεπόρτερ τεχνολογίας να αφήσει τη γυναίκα του) και, πιο πρόσφατα, ο Gemini της Google, του οποίου ο «ξύπνιος» χαρακτήρας την οδήγησε να δημιουργήσει ιστορικά παράλογα αποτελέσματα όπως εικόνες μαύρων στρατιωτών των Ναζί.
Ευτυχώς, οι σύγχρονες κοινωνίες έχουν επινοήσει έναν μηχανισμό που επιτρέπει σε διαφορετικές ηθικές φυλές να συνυπάρχουν: το κράτος δικαίου. Όπως έχω σημειώσει σε προηγούμενα σχόλια, το δίκαιο, ως θεσμός, αντιπροσωπεύει την αποθέωση της συνεργασίας. Η εμφάνισή του ήταν μια βαθιά ανακάλυψη μετά από αιώνες ανθρωπότητας που αγωνίστηκε να λύσει το δικό της πρόβλημα ευθυγράμμισης: πώς να οργανώσει τη συλλογική δράση.
Γνωστικά, το δίκαιο αντιπροσώπευε μια ριζοσπαστική νέα τεχνολογία. Μόλις εσωτερικεύτηκε, ευθυγράμμισε την ατομική δράση με την κοινοτική συναίνεση. Ο νόμος τηρούνταν ως νόμος, ανεξάρτητα από την υποκειμενική κρίση ενός ατόμου για οποιονδήποτε δεδομένο κανόνα. Αρκετοί εξέχοντες φιλόσοφοι έχουν καταφύγει σε αυτό το μοναδικό χαρακτηριστικό. Ο νομικός θεωρητικός του εικοστού αιώνα HLA Hart περιέγραψε το δίκαιο ως έναν μηχανισμό που επιτρέπει τη διαμόρφωση των κανόνων αλλάζοντας τις υποκείμενες μετα-νόρμες συμπεριφοράς.
Πιο πρόσφατα, ο Ronald Dworkin χαρακτήρισε το δίκαιο με όρους «ακεραιότητας», επειδή ενσωματώνει τους κανόνες ολόκληρης της κοινότητας, αντί να μοιάζει με «σκακιέρα». Εάν το δίκαιο ήταν ένα συνονθύλευμα, θα μπορούσε να αντιπροσωπεύει καλύτερα μεμονωμένες εκλογικές ομάδες πεποιθήσεων και απόψεων, αλλά σε βάρος της συνοχής. Ο νόμος λοιπόν χρησιμεύει ως κουμπί παράκαμψης έναντι της ατομικής ανθρώπινης συμπεριφοράς. Απορροφά πολύπλοκες συζητήσεις για τα ήθη και τις αξίες και τις μετατρέπει σε δεσμευτικούς κανόνες.
Το μεγαλύτερο μέρος της τρέχουσας συζήτησης σχετικά με την τεχνητή νοημοσύνη και τη νομοθεσία επικεντρώνεται στο πώς η τεχνολογία μπορεί να αμφισβητήσει τα κυρίαρχα ρυθμιστικά παραδείγματα. Μια ανησυχία είναι το «φαινόμενο της κόκκινης βασίλισσας» (μια νύξη στην Αλίκη στη Χώρα των Θαυμάτων), το οποίο περιγράφει την εγγενή δυσκολία διατήρησης της τρέχουσας ρύθμισης με μια τεχνολογία που κινείται γρήγορα. Ένα άλλο ζήτημα είναι η πρόκληση της ρύθμισης μιας πραγματικά παγκόσμιας τεχνολογίας σε εθνικό επίπεδο. Και μετά υπάρχει το τέρας του Φρανκενστάιν πρόβλημα μιας νέας τεχνολογίας που αναπτύσσεται σε μεγάλο βαθμό από μερικές εταιρείες του ιδιωτικού τομέα των οποίων οι προτεραιότητες (κέρδη) διαφέρουν από εκείνες του κοινού.
Είναι πάντα δύσκολο να επιτευχθεί η σωστή ισορροπία μεταξύ της προώθησης της καινοτομίας και του μετριασμού των δυνητικά τεράστιων κινδύνων που συνδέονται με μια νέα τεχνολογία. Καθώς η τεχνητή νοημοσύνη αναμένεται να αλλάξει όλο και περισσότερο την ίδια τη νομική πρακτική, μπορεί ο νόμος να αλλάξει ακόμα την τροχιά της τεχνητής νοημοσύνης; Πιο συγκεκριμένα, εάν οι «μηχανές σκέψης» είναι ικανές να μαθαίνουν, μπορούν να μάθουν να υπακούουν στο νόμο;
Καθώς οι τεχνολογικοί γίγαντες σπεύδουν να επιδιώξουν την τεχνητή γενική νοημοσύνη – μοντέλα που μπορούν να ξεπεράσουν τους ανθρώπους σε οποιαδήποτε γνωστική εργασία – το πρόβλημα του «μαύρου κουτιού» της τεχνητής νοημοσύνης παραμένει. Ούτε οι δημιουργοί της τεχνολογίας γνωρίζουν πώς ακριβώς λειτουργεί.
Δεδομένου ότι οι προσπάθειες να εκχωρηθεί η τεχνητή νοημοσύνη σε μια «αντικειμενική λειτουργία» θα μπορούσαν να προκαλέσουν ακούσιες συνέπειες (για παράδειγμα, μια τεχνητή νοημοσύνη που έχει επιφορτιστεί με την κατασκευή συνδετήρων θα μπορούσε να αποφασίσει ότι η εξάλειψη της ανθρωπότητας είναι απαραίτητη για τη μεγιστοποίηση της παραγωγής της), θα χρειαστούμε μια πιο εξελιγμένη προσέγγιση.
Για το σκοπό αυτό, θα πρέπει να μελετήσουμε τη γνωστική εξέλιξη που επέτρεψε στις ανθρώπινες κοινωνίες να αντέξουν για όσο διάστημα έχουν. Το εάν οι ανθρώπινοι νόμοι μπορούν να επιβληθούν ως περιορισμός σχεδιασμού (ίσως με τους φύλακες της τεχνητής νοημοσύνης να παίζουν το ρόλο των διακοπτών, το αντίστοιχο των αξιωματικών επιβολής του νόμου στις ανθρώπινες κοινωνίες) είναι ένα ερώτημα για τους μηχανικούς. Αλλά αν μπορεί να γίνει, μπορεί να αντιπροσωπεύει τη σωτηρία μας.
Μέσω του νόμου, μπορούμε να απαιτήσουμε από την τεχνητή νοημοσύνη να πληρώσει το τίμημα της εισδοχής στην κοινωνία μας: την υπακοή στον συλλογικό κώδικα δεοντολογίας μας. Εάν τα νευρωνικά δίκτυα τεχνητής νοημοσύνης μιμούνται τον εγκέφαλό μας και ο νόμος είναι, όπως πιστεύεται ευρέως, ένα σε μεγάλο βαθμό γνωστικό φαινόμενο, αυτό θα πρέπει να είναι δυνατό. Εάν όχι, το πείραμα θα ρίξει τουλάχιστον φως στον ρόλο των συναισθηματικών και κοινωνικών παραγόντων στη διατήρηση του ανθρώπινου νόμου. Αν και μπορεί να χρειαστεί να επανεξετάσουμε και να βελτιώσουμε ορισμένα στοιχεία της υπάρχουσας νομοθεσίας, αυτή η προοπτική τουλάχιστον μας αναγκάζει να εξετάσουμε τις κρίσιμες διαφορές μεταξύ «εμείς» και «αυτοί». Εκεί πρέπει να ξεκινήσουν οι προσπάθειές μας για τη ρύθμιση της τεχνητής νοημοσύνης.
Η Antara Haldar, Αναπληρώτρια Καθηγήτρια Εμπειρικών Νομικών Σπουδών στο Πανεπιστήμιο του Κέιμπριτζ, είναι επισκέπτρια στο Πανεπιστήμιο του Χάρβαρντ και η κύρια ερευνήτρια για μια επιχορήγηση του Ευρωπαϊκού Συμβουλίου Έρευνας για το δίκαιο και τη γνώση.
Latest News
Τέλη κυκλοφορίας: Με δύο τρόπους η εκτύπωση - Βήμα βήμα η διαδικασία, πότε πληρώνονται
Στο myCar αναρτήθηκαν τα τέλη κυκλοφορίας για το 2025 - Τι πρέπει να προσέξουν οι ιδιοκτήτες αυτοκινήτων
Το νέο σύστημα κινήτρων κι επιβράβευσης βελτιώνει την αποτελεσματικότητα του Δημοσίου
Επιβραβεύει τους δημοσίους υπαλλήλους που συμβάλλουν αποφασιστικά στην εκπλήρωση επιλέξιμων στόχων
Η συστηματική καταπίεση των γυναικών στην αφγανική κοινωνία δικαιολογεί προσφυγική προστασία
Μία απόφαση-ορόσημο από το Δικαστήριο της Ευρωπαϊκής Ένωσης
Ο καπιταλισμός των... «συντρόφων» και οι κίνδυνοι μιας οικονομίας Τραμπ-Μάσκ
Ο Ντόναλντ Τραμπ προσφέρει ένα όραμα φιλικού καπιταλισμού που έχει δελεάσει πολλούς ηγέτες της βιομηχανίας και των οικονομικών
Ψηφιακή έκδοση και διαβίβαση παραστατικών διακίνησης – Γ’ Μέρος
Οι ημερομηνίες διαβίβασης των δεδομένων στην ψηφιακή πλατφόρμα myDATA για τις υπόχρεες οντότητες
Απόλυτη καταστροφή ο Οκτώβριος στο ελληνικό Χρηματιστήριο - Τι συνέβη
Κατεγράφησαν οι χειρότερες μηνιαίες απώλειες του έτους για Γενικό και Τραπεζικό Δείκτη. Υποτιμημένες οι περισσότερες μετοχές σε μεγάλη και μεσαία κεφαλαιοποίηση.
Ψηφιακό ευρώ: ποια τα οφέλη του για εσάς
Το ψηφιακό ευρώ θα λειτουργεί συμπληρωματικά προς τα τραπεζογραμμάτια, παρέχοντας – δωρεάν – μία και μοναδική επιλογή για τις ψηφιακές πληρωμές σε ολόκληρη τη ζώνη του ευρώ
Σενάριο σοκ για την οικονομία - Το χτύπημα του Ισραήλ στα πυρηνικά του Ιράν
Οι υπεύθυνοι χάραξης πολιτικής και οι διαχειριστές οικονομικών κινδύνων μπορεί να ελπίζουν για το καλύτερο, αλλά θα πρέπει να προετοιμάζονται για το χειρότερο.
Για μια επιχειρούσα κοινωνία
Το βιβλίο των Αθ. Παπανδρόπουλου και Κώστα Χριστίδη φέρνει στο προσκήνιο τον δημιουργικό δυναμισμό ως δημόσια φιλοσοφία
Πράσινη μετάβαση με ψηφιακές τεχνολογίες
Η προσαρμογή των επιχειρήσεων σε αυτές τις νέες συνθήκες απαιτεί στρατηγικές καινοτομίας και εκσυγχρονισμού