Η ανθρωπότητα βρίσκεται στα πρόθυρα μιας νέας εποχής πολέμων.
Καθοδηγούμενες από τις ραγδαίες εξελίξεις στην Τεχνητή Νοημοσύνη, οι πλατφόρμες όπλων που μπορούν να εντοπίσουν, να στοχεύσουν και να αποφασίσουν να σκοτώσουν ανθρώπινα όντα από μόνες τους —χωρίς κάποιος αξιωματικός να διευθύνει την επίθεση ή ένας στρατιώτης να πατήσει τη σκανδάλη— αλλάζουν με ταχύτητα το μέλλον των συγκρούσεων.
Τεχνητή νοημοσύνη: Πώς θα έμοιαζε σήμερα ο Μέγας Αλέξανδρος;
Επισήμως, ονομάζονται θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS), αλλά οι επικριτές τους τα αποκαλούν ρομπότ δολοφόνους. Πολλές χώρες, συμπεριλαμβανομένων των ΗΠΑ, της Κίνας, του Ηνωμένου Βασιλείου, της Ινδίας, του Ιράν, του Ισραήλ, της Νότιας Κορέας, της Ρωσίας και της Τουρκίας, έχουν επενδύσει πολλά στην ανάπτυξη τέτοιων όπλων τα τελευταία χρόνια.
Μια έκθεση των Ηνωμένων Εθνών εκτιμά ότι τα τουρκικής κατασκευής drones Kargu-2 σηματοδότησαν την αυγή αυτής της νέας εποχής, όταν επιτέθηκαν σε μαχητές στη Λιβύη το 2020 εν μέσω της συνεχιζόμενης σύγκρουσης στη χώρα.
Τα αυτόνομα μη επανδρωμένα αεροσκάφη διαδραμάτισαν επίσης κρίσιμο ρόλο στον πόλεμο στην Ουκρανία, όπου τόσο η Μόσχα όσο και το Κίεβο έχουν αναπτύξει αυτά τα όπλα χωρίς πληρώματα για να στοχεύσουν εχθρικούς στρατιώτες και υποδομές.
Η μεγάλη δημόσια συζήτηση
Η εμφάνιση και η ανάπτυξη τέτοιων μηχανών έχουν προκαλέσει έντονες συζητήσεις μεταξύ ειδικών, ακτιβιστών και διπλωματών σε παγκόσμιο επίπεδο, καθώς ανταλλάσσουν επιχειρήματα για τα πιθανά οφέλη και τους ενδεχόμενους κινδύνους από τη χρήση ρομπότ. Ταυτόχρονα το ερώτημα για το εάν πρέπει να τις φρενάρουν εδώ και τώρα ανεβάζει την ένταση και παραμένει χωρίς απάντηση.
Ωστόσο, σε ένα ολοένα και πιο διχασμένο γεωπολιτικό τοπίο, μπορεί η διεθνής κοινότητα να φτάσει σε οποιαδήποτε συναίνεση γι’ αυτές τις μηχανές; Μπορούν οι ηθικές, νομικές και τεχνολογικές απειλές που θέτουν τέτοια όπλα να τα βάλουν στον πάγο πριν κυριαρχήσουν στο πεδίο της μάχης; Είναι εφικτή μια γενική απαγόρευση ή η εισαγωγή μιας δέσμης κανονισμών αποτελεί μια πιο ρεαλιστική επιλογή; Εκτενές σχετικό άρθρο του Al Jazeera καταπιάστηκε με αυτά τα ερωτήματα, τα έθεσε σε κορυφαίους ειδικούς του συγκεκριμένου τομέα και πήρε κάποιες απαντήσεις που δίνουν τροφή για σκέψη.
Μια πρώτη σύντομη απάντηση είναι ότι η πλήρης απαγόρευση των αυτόνομων οπλικών συστημάτων δεν φαίνεται πιθανή σύντομα. Ο κόσμος διχάζεται ανάμεσα σε αυτούς που πιστεύουν ότι επιβάλλεται η εισαγωγή πολλών κανονισμών που θα «ακυρώνουν» επί της ουσίας το βεληνεκές της χρήσης τους και όσους «γλυκαίνονται» από τις υποσχέσεις σίγουρης νίκης που κομίζουν.
Η Γιασμίν Αφίνα, συνεργάτης ερευνήτρια στη δεξαμενή σκέψης Chatham House με έδρα το Λονδίνο, παρουσίασε μόλις το Μάρτιο στη Βουλή των Κοινοτήτων, πως η Υπηρεσία Εθνικής Ασφαλείας των ΗΠΑ (NSA) αναγνώρισε κάποια στιγμή λανθασμένα δημοσιογράφο του Al Jazeera για μεταφορέα της Αλ Κάιντα. Το συμβάν, που οδήγησε στο να μπει το όνομα του προαναφερόμενου δημοσιογράφου στη λίστα με τα άτομα ενδιαφέροντος των ΗΠΑ, αποκαλύφθηκε από τη διαρροή εγγράφων του 2013 από τον Έντουαρντ Σνόουντεν, που εργαζόταν με συμβόλαιο στην NSA.
Το σύστημα επιτήρησης πίσω από το συμβάν δεν είναι φονικό, ωστόσο μπορεί να επιφέρει τον θάνατο, στη συγκεκριμένη περίπτωση του δημοσιογράφου, σε άλλες περιστάσεις πολλών άλλων, επιχειρηματολόγησε η Αφίνα.
Μαζικοί θάνατοι;
Η πιθανότητα τα LAWSνα να πυροδοτήσουν μια σειρά κλιμακούμενων γεγονότων με κατάληξη μαζικούς θανάτους ανησύχησε τον Τόμπι Γουέλς, ειδικό στην Τεχνητή Νοημοσύνη στο πανεπιστήμιο New South Wales στο Σίδνεϊ της Αυστραλίας. «Ξέρουμε τι συμβαίνει όταν βάζουμε περίπλοκα ηλεκτρονικά συστήματα το ένα εναντίον του άλλου σε ένα αβέβαιο και ανταγωνιστικό περιβάλλον. Ονομάζεται… χρηματιστήριο», έγραψε ο ίδιος σε αναφορά του στη Βουλή των Λόρδων.
Αυτό όμως δεν σημαίνει, κατά τον ίδιο, ότι πρέπει οι ερευνητές να σταματήσουν να αναπτύσσουν την τεχνολογία που είναι πίσω από τα αυτόματα οπλικά συστήματα, καθώς μπορεί να έχει σημαντικά οφέλη σε άλλα πεδία.
Για παράδειγμα, ο ίδιος αλγόριθμος χρησιμοποιείται στα συστήματα ασφαλείας των αυτοκινήτων για να αποφεύγεται η σύγκρουση τους με τους πεζούς. «Θα ήταν ηθικά λάθος να αρνούμαστε στον κόσμο την ευκαιρία να μειώσουμε τα τροχαία στους δρόμους», συνεχίζει ο ίδιος.
Μια πιθανότητα θα ήταν η προσέγγιση τους με τον ίδιο τρόπο που περιορίστηκαν τα χημικά όπλα, δηλαδή μέσω της Σύμβασης για τα Χημικά Όπλα των Ηνωμένων Εθνών, που εμποδίζει την ανάπτυξη, την παραγωγή, τη συσσώρευση και τη χρήση τους. «Δεν μπορούμε να βάλουμε τη Πανδώρα μέσα στο κουτί, αλλά αυτά τα μέτρα έχουν καταφέρει σε γενικό πλαίσιο να περιορίσουν τη λανθασμένη χρήση στα πεδία σε όλο τον κόσμο», καταλήγει.
Τα οφέλη της Τεχνητής Νοημοσύνης
Επί της ουσίας, τα αυτόνομα οπλικά συστήματα που καθορίζονται από την Τεχνητή Νοημοσύνη έχουν μεγάλα οφέλη από στρατιωτικής άποψης. Για παράδειγμα μπορούν να διεκπεραιώσουν κάποιες αποστολές χωρίς τη χρήση στρατιωτών, μειώνοντας κατά αυτόν τον τρόπο τις απώλειες.
Οι υποστηρικτές τους υπερτονίζουν ότι αυτά τα συστήματα μπορούν επίσης να ελαττώσουν τα ανθρώπινα λάθη στη λήψη αποφάσεων και να εκμηδενίσουν τις προκαταλήψεις, ενώ η ακρίβεια τους μπορεί, τουλάχιστον θεωρητικά, να μειώσει τις απώλειες.
Για κάποιους άλλους ειδικούς ωστόσο, οι κίνδυνοι από τα LAWS ξεπερνούν τα πλεονεκτήματα της χρήσης τους, καθώς οι πιθανές τεχνικές δυσλειτουργίες, οι παραβιάσεις των διεθνών νόμων και οι ηθικές ανησυχίες για τα μηχανήματα που παίρνουν αποφάσεις για τη ζωή και τον θάνατο δεν μπορούν να αγνοηθούν.
Και ποιος είναι υπόλογος;
Στο κέντρο όλων αυτών είναι το καυτό ερώτημα για το ποιος φέρει την ευθύνη για ότι κακό συμβεί, δηλαδή ποιος θα είναι υπόλογος σε μια αστοχία τους με καταστροφικά αποτελέσματα.
Για παράδειγμα, αν τα ρομπότ διαπράξουν ένα έγκλημα πολέμου, θα κληθεί σε απολογία ο επικεφαλής αξιωματικός που παρακολουθεί τη σύγκρουση ή ο ανώτερος του που αποφάσισε την εμπλοκή των μηχανών σε πρώτη φάση; Μήπως τελικά αυτός που πρέπει να καθίσει στο εδώλιο είναι αυτός που τις κατασκεύασε;
Όλα αυτά «αντιπροσωπεύουν ένα μεγάλο κενό στην πολιτική συζήτηση για το θέμα», συμπληρώνουν οι ερευνητές Βίντσεντ Μπουλάνιν και Μάρτα Μπο του Διεθνούς Ερευνητικού Ινστιτούτου για την Ειρήνη της Στοκχόλμης (SIRPI).
Για τους ίδιους αυτό που χρειάζεται είναι «η συγκεκριμενοποίηση ποιου ακριβώς όπλου ή σεναρίου μπορεί να αποδειχτεί προβληματικό».
Με απλά λόγια πρέπει να καταρτιστούν δύο διαφορετικές σειρές κανονισμών βάσει των οποίων κάποια θα καταργηθούν και άλλα θα χρησιμοποιηθούν αρκεί να καλύπτουν συγκεκριμένα στάνταρντ στη χρήση τους.
Ανθρώπινη αξιοπρέπεια
«Η ερώτηση του ενός εκατομμυρίου δολαρίων είναι ποια από αυτά μπορούν να χωρέσουν και στα δύο καλάθια».
Σε κάθε περίπτωση, για τον Γουέλς, που προσπερνά αν οι κανονισμοί πρέπει να είναι πολιτικοί ή νομικοί και την έλλειψη εμπιστοσύνης ανάμεσα στα διάφορα κράτη, το βασικότερο όλων των προβλημάτων είναι ότι τις κρίσιμες αποφάσεις στα πεδία των μαχών θα λαμβάνουν οι μηχανές που υπολείπονται ανθρώπινης ενσυναίσθησης.
«Είναι ασέβεια προς την ανθρώπινη αξιοπρέπεια», καταλήγει ο ίδιος.
Latest News
Με το φράγμα του 1 τρισ. δολ. φλερτάρει η παγκόσμια αγορά ΑΙ
Ο δρόμος για την τεχνητή νοημοσύνη - Bain & Company: Εκτόξευση της ζήτησης για μικροτσίπ και έκρηξη του κόστους των data centers
Κι ύστερα ήρθαν οι μέλισσες - Πώς ένα σπάνιο είδος ματαιώνει data center της Meta
Η Meta βρίσκεται υπό πίεση να αποδείξει στους επενδυτές ότι το στοίχημά της στην τεχνητή νοημοσύνη θα αποφέρει καρπούς
Γιατί ο Ζάκερμπεργκ δεν θα πάψει να ξοδεύει ασύστολα για τεχνητή νοημοσύνη
Ο Μαρκ Ζάκερμπεργκ θεωρεί ότι η χρήση τεχνητής νοημοσύνης ωθεί τα κέρδη της Meta Platforms
AI factory: Η ελληνική πρόταση για την Τεχνητή Νοημοσύνη
Η τεχνητή νοημοσύνη είναι η νέα μεγάλη πρόκληση της εποχής και διεισδύει σε κάθε τομέα της ανθρώπινης δραστηριότητας
Νέα μέθοδος από το MIT στην εκπαίδευση ρομπότ - Πώς αξιοποιεί μοντέλα όπως το GTP-4
Απώτερες στόςο ένας παγκόσμιος εγκέφαλος ρομπότ που θα μπορεί κανείς να τον "κατεβάζει" και να τον χρησιμοποιεί στο ρομπότ του
Η Disney επενδύει στην τεχνητή νοημοσύνη - Τα σχέδια του ομίλου
Διάφορα τμήματα εντός της Disney εξερευνούν εφαρμογές για την επαυξημένη πραγματικότητα, η οποία τοποθετεί ψηφιακά στοιχεία στον πραγματικό κόσμο
Πώς εκμεταλλεύθηκαν την Meta οι Κινέζοι για στρατιωτικούς σκοπούς
Η Κίνα χρησιμοποιεί τα μεγάλα γλωσσικά μοντέλα προς στρατιωτικές και χρήσεις ασφάλειας, σύμφωνα με δημοσίευμα του Reuters
Οι νέοι θέλουν να γίνουν influencers αλλά η τεχνητή νοημοσύνη καραδοκεί [γράφημα]
Οι υποσχέσεις για εύκολο και γρήγορο κέρδος μέσω αυτοαπασχόλησης κάνει τις νεότερες ηλικίες κυρίως να θέλουν να γίνουν influencers - Τι γίνεται όμως με την τεχνητή νοημοσύνη;
Νέος γύρος χρηματοδότησης 1 εκατ. ευρώ για τη startup Indeex
Η Indeex έχει αναπτύξει μια καινοτόμα λύση λογισμικού που ενσωματώνεται σε υπάρχουσες βιομηχανικές εγκαταστάσεις και γίνονται ψηφιακές
Τι θα γινόταν αν η Microsoft άφηνε την OpenAI... ελεύθερη;
Η Microsoft έχει ήδη αρχίσει να μειώνει την εξάρτησή της από την OpenAI - Η Amazon, από την πλευρά της, θα ήταν ευτυχής να αποκτήσει πρόσβαση στα μοντέλα της OpenAI