Τον περασμένο Ιούλιο ο Χένρι Κίσινγκερ ταξίδεψε στο Πεκίνο για τελευταία φορά πριν από το θάνατό του. Μεταξύ των μηνυμάτων που παρέδωσε στον ηγέτη της Κίνας, Xi Jinping, ήταν μία προειδοποίηση για τους καταστροφικούς κινδύνους της τεχνητής νοημοσύνης (AI), σύμφωνα με τον Economist.

Τεχνητή νοημοσύνη: Γιατί οι εργαζόμενοι την βλέπουν ως τροχοπέδη

Έκτοτε, αμερικανικά αφεντικά τεχνολογίας και πρώην κυβερνητικοί αξιωματούχοι συναντήθηκαν ήσυχα με τους Κινέζους ομολόγους τους σε μια σειρά άτυπων συναντήσεων που ονομάστηκαν Διάλογοι του Κίσινγκερ. Οι συζητήσεις επικεντρώθηκαν εν μέρει στον τρόπο προστασίας του κόσμου από τους κινδύνους της τεχνητής νοημοσύνης.

Στις 27 Αυγούστου, Αμερικανοί και Κινέζοι αξιωματούχοι αναμένεται να ασχοληθούν με το θέμα (μαζί με πολλούς άλλους) όταν ο σύμβουλος εθνικής ασφάλειας της Αμερικής, Τζέικ Σάλιβαν, ταξιδέψει στο Πεκίνο.

«Επιταχυντές» και «καταστροφείς»

Πολλοί στον κόσμο της τεχνολογίας πιστεύουν ότι η τεχνητή νοημοσύνη θα φτάσει να ταιριάζει ή να ξεπεράσει τις γνωστικές ικανότητες των ανθρώπων. Ορισμένοι προγραμματιστές προβλέπουν ότι τα μοντέλα τεχνητής γενικής νοημοσύνης (AGI) θα είναι μια μέρα σε θέση να μάθουν, γεγονός που θα μπορούσε να τα καταστήσει ανεξέλεγκτα. Όσοι πιστεύουν ότι, αν αφεθεί ανεξέλεγκτη, η τεχνητή νοημοσύνη αποτελεί υπαρξιακό κίνδυνο για την ανθρωπότητα ονομάζονται «καταστροφείς».

Τείνουν να υποστηρίζουν αυστηρότερους κανονισμούς. Από την άλλη πλευρά είναι οι «επιταχυντές», οι οποίοι τονίζουν τη δυνατότητα της τεχνητής νοημοσύνης να ωφελήσει την ανθρωπότητα.

Οι δυτικοί επιταχυντές συχνά υποστηρίζουν ότι ο ανταγωνισμός με τους κινέζους κατασκευαστές, οι οποίοι δεν παρεμποδίζονται από ισχυρές διασφαλίσεις, είναι τόσο έντονος που η Δύση δεν έχει την πολυτέλεια να επιβραδύνει. Το συμπέρασμα είναι ότι η συζήτηση στην Κίνα είναι μονόπλευρη, με τους υποστηρικτές της επιτάχυνσης να έχουν τον μεγαλύτερο λόγο στο ρυθμιστικό περιβάλλον. Στην πραγματικότητα, η Κίνα έχει τους δικούς της καταστροφείς AI – και έχουν όλο και μεγαλύτερη επιρροή.

Μέχρι πρόσφατα, οι ρυθμιστικές αρχές της Κίνας επικεντρώνονταν στον κίνδυνο των αδίστακτων chatbots που λένε πολιτικά μη ορθά πράγματα για το Κομμουνιστικό Κόμμα, παρά στον κίνδυνο των μοντέλων αιχμής να ξεφύγουν από τον ανθρώπινο έλεγχο.

Το 2023 η κυβέρνηση απαίτησε από τους προγραμματιστές να καταχωρήσουν τα μεγάλα γλωσσικά μοντέλα τους. Οι αλγόριθμοι σημειώνονται τακτικά για το πόσο καλά συμμορφώνονται με τις σοσιαλιστικές αξίες και αν θα μπορούσαν να «ανατρέψουν την κρατική εξουσία». Οι κανόνες αποσκοπούν επίσης στην πρόληψη των διακρίσεων και των διαρροών δεδομένων πελατών. Αλλά, γενικά, οι κανονισμοί ασφάλειας AI είναι ευέλικτοι. Ορισμένοι από τους πιο επαχθείς περιορισμούς της Κίνας καταργήθηκαν πέρυσι.

Οι επιταχυντές της Κίνας θέλουν να κρατήσουν τα πράγματα έτσι. Ο Zhu Songchun, σύμβουλος του κόμματος και διευθυντής ενός προγράμματος που υποστηρίζεται από το κράτος για την ανάπτυξη της AGI, υποστήριξε ότι η ανάπτυξη της τεχνητής νοημοσύνης είναι εξίσου σημαντική με το έργο «Δύο βόμβες, ένας δορυφόρος», μια ώθηση της εποχής του Μάο για την παραγωγή πυρηνικών όπλων μεγάλου βεληνεκούς.

Νωρίτερα φέτος, ο Yin Hejun, υπουργός Επιστήμης και Τεχνολογίας, χρησιμοποίησε ένα παλιό σύνθημα του κόμματος για να πιέσει για ταχύτερη πρόοδο, γράφοντας ότι η ανάπτυξη, συμπεριλαμβανομένου του τομέα της τεχνητής νοημοσύνης, ήταν η μεγαλύτερη πηγή ασφάλειας της Κίνας. Ορισμένοι υπεύθυνοι χάραξης οικονομικής πολιτικής προειδοποιούν ότι η υπερβολική επιδίωξη της ασφάλειας θα βλάψει την ανταγωνιστικότητα της Κίνας.

Αλλά οι επιταχυντές δέχονται αντίσταση από μια κλίκα ελίτ επιστημόνων με το αυτί του Κομμουνιστικού Κόμματος. Ο πιο σημαντικός ανάμεσά τους είναι ο Andrew Chi-Chih Yao, ο μόνος Κινέζος που έχει κερδίσει το βραβείο Turing για την πρόοδο στην επιστήμη των υπολογιστών. Τον Ιούλιο, ο κ. Yao δήλωσε ότι η τεχνητή νοημοσύνη ενέχει μεγαλύτερο υπαρξιακό κίνδυνο για τον άνθρωπο από τα πυρηνικά ή βιολογικά όπλα.

Ο Zhang Ya-Qin, πρώην πρόεδρος της Baidu, ενός κινεζικού τεχνολογικού γίγαντα, και ο Xue Lan, πρόεδρος της επιτροπής εμπειρογνωμόνων του κράτους για τη διακυβέρνηση της τεχνητής νοημοσύνης, εκτιμούν επίσης ότι η τεχνητή νοημοσύνη μπορεί να απειλήσει την ανθρώπινη φυλή. Ο Yi Zeng της Κινεζικής Ακαδημίας Επιστημών πιστεύει ότι τα μοντέλα AGI θα δουν τελικά τους ανθρώπους όπως οι άνθρωποι βλέπουν τα μυρμήγκια.

Μία αέναη συζήτηση

Εάν η Κίνα προχωρήσει με τις προσπάθειες περιορισμού της πιο προηγμένης έρευνας και ανάπτυξης AI, θα έχει προχωρήσει περισσότερο από οποιαδήποτε άλλη μεγάλη χώρα. Ο Σι λέει ότι θέλει να «ενισχύσει τη διακυβέρνηση των κανόνων τεχνητής νοημοσύνης στο πλαίσιο των Ηνωμένων Εθνών». Για να γίνει αυτό, η Κίνα θα πρέπει να συνεργαστεί στενότερα με άλλους. Αλλά η Αμερική και οι φίλοι της εξακολουθούν να εξετάζουν το ζήτημα. Η συζήτηση μεταξύ καταστροφέων και επιταχυντών, στην Κίνα και αλλού, απέχει πολύ από το να τελειώσει.

Ακολουθήστε τον ot.grστο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στον ot.gr

Latest News

Πρόσφατα Άρθρα Tεχνητή νοημοσύνη
Kaspersky: 6 στους 10 ανησυχούν για την ψηφιακή κληρονομιά των νεκρών
Tεχνητή νοημοσύνη |

Ψηφιακή μετά θάνατον ζωή: 6 στους 10 ανησυχούν για την ψηφιακή κληρονομιά των νεκρών

Περισσότεροι από τους μισούς ερωτηθέντες (58%) συμφωνούν ότι η διαδικτυακή παρουσία των ανθρώπων που έχουν πεθάνει θα μπορούσε να αναδημιουργηθεί χρησιμοποιώντας AI