Το σκάνδαλο που ξέσπασε τον Φεβρουάριο όταν το Gemini της Google έβγαλε εικόνες μαύρων και ασιατών ναζιστών στρατιωτών, θεωρήθηκε ως προειδοποίηση για τη δύναμη και την κατάχρηση αυτής που μπορεί να δώσει η τεχνητή νοημοσύνη στους τιτάνες της τεχνολογίας.
Ο διευθύνων σύμβουλος της Google Σούνταρ Πιτσάι χαρακτήρισε τον περασμένο μήνα ως «εντελώς απαράδεκτα» τα λάθη της εφαρμογής τεχνητής νοημοσύνης Gemini (πρώην Bard) της εταιρείας του, αφού γκάφες όπως οι εικόνες εθνοτικά διαφορετικών ναζιστικών στρατευμάτων, τήν ανάγκασαν να σταματήσει προσωρινά να δημιουργεί απεικονίσεις ανθρώπων.
Gemini: Το chatbot της Google δεν θα απαντά σε ερωτήσεις για εκλογές
Οι χρήστες των μέσων κοινωνικής δικτύωσης χλεύασαν και επέκριναν τη Google για τις ιστορικά ανακριβείς εικόνες, όπως αυτές που δείχνουν μια γυναίκα μαύρη γερουσιαστή των ΗΠΑ από το 1800 – ενώ η πρώτη μαύρη γερουσιαστής εκλέχθηκε μόλις το 1992.
«Σίγουρα τα κάναμε θάλασσα στη δημιουργία εικόνων», δήλωσε ο συνιδρυτής της Google, Σεργκέι Μπριν, προσθέτοντας ότι η εταιρεία θα έπρεπε να είχε δοκιμάσει τις δυνατότητες του Gemini πιο ενδελεχώς.
Το γεγονός αυτό συνέβη στο δημοφιλές φεστιβάλ τέχνης και τεχνολογίας South by Southwest στο Όστιν και όπως παραδέχτθηκαν επισκέπτες, αναδεικνύει την υπέρμετρη δύναμη που έχουν μια χούφτα εταιρείες πάνω στις πλατφόρμες τεχνητής νοημοσύνης που είναι έτοιμες να αλλάξουν τον τρόπο με τον οποίο οι άνθρωποι ζουν και εργάζονται.
Ή μήπως η Google το… παράκανε στην προσπάθειά της να προβάλει την ένταξη και την ποικιλομορφία;
Η εταιρεία διόρθωσε γρήγορα τα λάθη της, αλλά το υποκείμενο πρόβλημα παραμένει, δήλωσε ο Τσάρλι Μπουργκόιν, διευθύνων σύμβουλος του εργαστηρίου εφαρμοσμένης επιστήμης Valkyrie στο Τέξας, όπως ανέφερε στο Tuko. Κι αυτό γιατί παρομοίασε τη διόρθωση του Gemini από την Google με την τοποθέτηση ενός τσιρότου σε μια πληγή από σφαίρα.
Θέμα επιρροής
Ενώ η Google είχε για καιρό την πολυτέλεια να έχει χρόνο να βελτιώσει τα προϊόντα της, τώρα επιδίδεται σε έναν αγώνα δρόμου για την τεχνητή νοημοσύνη με τη Microsoft, την OpenAI, την Anthropic και άλλες που μοιάζουν να κινούνται ακόμη και πιο γρήγορα από ό,τι ξέρουν.
Τα λάθη που γίνονται σε μια προσπάθεια πολιτισμικής ευαισθησίας αποτελούν σημεία αιχμής, ιδίως δεδομένων των τεταμένων πολιτικών διαιρέσεων στις Ηνωμένες Πολιτείες, μια κατάσταση που επιδεινώνεται από την πλατφόρμα X του Ίλον Μασκ, όπου τα σχόλια είναι πανηγυρικά κάθε φορά που συμβαίνει κάτι ντροπιαστικό στο χώρο της τεχνολογίας – και η γκάφα με τους Ναζί ήταν ένα τέτοιο περιστατικό.
Το λάθος αυτό έθεσε, ωστόσο, υπό αμφισβήτηση τον βαθμό ελέγχου που έχουν όσοι χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης πάνω στις πληροφορίες.
Την επόμενη δεκαετία, η ποσότητα των πληροφοριών – ή της παραπληροφόρησης – που δημιουργούνται από την τεχνητή νοημοσύνη, θα μπορούσε να επισκιάσει εκείνη που παράγεται από τους ανθρώπους, πράγμα που σημαίνει ότι αυτοί που ελέγχουν τις διασφαλίσεις της ΑΙ θα έχουν τεράστια επιρροή στον κόσμο.
Προκαταλήψεις
Η τεχνητή νοημοσύνη εκπαιδεύεται σε ατελείωτα δεδομένα και μπορεί να τεθεί σε εφαρμογή σε ένα αυξανόμενο φάσμα εργασιών, από τη δημιουργία εικόνων ή ήχου μέχρι τον καθορισμό του ποιος παίρνει ένα δάνειο ή αν μια ιατρική σάρωση ανιχνεύει καρκίνο.
Αλλά αυτά τα δεδομένα προέρχονται από έναν κόσμο γεμάτο πολιτισμικές προκαταλήψεις, παραπληροφόρηση και κοινωνική ανισότητα -για να μην αναφέρουμε το διαδικτυακό περιεχόμενο που μπορεί να περιλαμβάνει περιστασιακές συζητήσεις μεταξύ φίλων ή σκόπιμα υπερβολικές και προκλητικές αναρτήσεις- οπότε τα μοντέλα της τεχνητής νοημοσύνης μπορούν να απηχούν αυτές τις ατέλειες.
Με το Gemini, οι μηχανικοί της Google προσπάθησαν να εξισορροπήσουν τους αλγορίθμους ώστε να παρέχουν αποτελέσματα που αντικατοπτρίζουν καλύτερα την ανθρώπινη ποικιλομορφία.
Η προσπάθεια απέτυχε
«Μπορεί πραγματικά να είναι δύσκολο και θέμα διακριτικότητας να καταλάβουμε πού υπάρχει προκατάληψη και πώς αυτή εκδηλώνεται», εξήγησε ο δικηγόρος τεχνολογίας Alex Shahrestani, διευθύνων σύμβουλος της νομικής εταιρείας Promise Legal για εταιρείες τεχνολογίας.
Ακόμη και οι μηχανικοί με καλές προθέσεις που ασχολούνται με την εκπαίδευση της τεχνητής νοημοσύνης, δεν μπορούν να μην φέρουν τη δική τους εμπειρία ζωής και την υποσυνείδητη προκατάληψη στη διαδικασία.
Ο Μπουργκόιν της Valkyrie κατηγόρησε επίσης τις μεγάλες εταιρείες τεχνολογίας ότι κρατούν τις εσωτερικές λειτουργίες της δημιουργικής τεχνητής νοημοσύνης κρυμμένες σε «μαύρα κουτιά», ώστε οι χρήστες να μην είναι σε θέση να εντοπίσουν τυχόν κρυφές προκαταλήψεις.
Οι ειδικοί και οι ακτιβιστές ζητούν μεγαλύτερη ποικιλομορφία στις ομάδες που δημιουργούν την ΑΙ και τα συναφή εργαλεία της, καθώς και μεγαλύτερη διαφάνεια ως προς τον τρόπο λειτουργίας τους – ιδίως όταν οι αλγόριθμοι ξαναγράφουν τα αιτήματα των χρηστών για να «βελτιώσουν» τα αποτελέσματα.
Latest News
Κι ύστερα ήρθαν οι μέλισσες - Πώς ένα σπάνιο είδος ματαιώνει data center της Meta
Η Meta βρίσκεται υπό πίεση να αποδείξει στους επενδυτές ότι το στοίχημά της στην τεχνητή νοημοσύνη θα αποφέρει καρπούς
Γιατί ο Ζάκερμπεργκ δεν θα πάψει να ξοδεύει ασύστολα για τεχνητή νοημοσύνη
Ο Μαρκ Ζάκερμπεργκ θεωρεί ότι η χρήση τεχνητής νοημοσύνης ωθεί τα κέρδη της Meta Platforms
AI factory: Η ελληνική πρόταση για την Τεχνητή Νοημοσύνη
Η τεχνητή νοημοσύνη είναι η νέα μεγάλη πρόκληση της εποχής και διεισδύει σε κάθε τομέα της ανθρώπινης δραστηριότητας
Νέα μέθοδος από το MIT στην εκπαίδευση ρομπότ - Πώς αξιοποιεί μοντέλα όπως το GTP-4
Απώτερες στόςο ένας παγκόσμιος εγκέφαλος ρομπότ που θα μπορεί κανείς να τον "κατεβάζει" και να τον χρησιμοποιεί στο ρομπότ του
Η Disney επενδύει στην τεχνητή νοημοσύνη - Τα σχέδια του ομίλου
Διάφορα τμήματα εντός της Disney εξερευνούν εφαρμογές για την επαυξημένη πραγματικότητα, η οποία τοποθετεί ψηφιακά στοιχεία στον πραγματικό κόσμο
Πώς εκμεταλλεύθηκαν την Meta οι Κινέζοι για στρατιωτικούς σκοπούς
Η Κίνα χρησιμοποιεί τα μεγάλα γλωσσικά μοντέλα προς στρατιωτικές και χρήσεις ασφάλειας, σύμφωνα με δημοσίευμα του Reuters
Οι νέοι θέλουν να γίνουν influencers αλλά η τεχνητή νοημοσύνη καραδοκεί [γράφημα]
Οι υποσχέσεις για εύκολο και γρήγορο κέρδος μέσω αυτοαπασχόλησης κάνει τις νεότερες ηλικίες κυρίως να θέλουν να γίνουν influencers - Τι γίνεται όμως με την τεχνητή νοημοσύνη;
Νέος γύρος χρηματοδότησης 1 εκατ. ευρώ για τη startup Indeex
Η Indeex έχει αναπτύξει μια καινοτόμα λύση λογισμικού που ενσωματώνεται σε υπάρχουσες βιομηχανικές εγκαταστάσεις και γίνονται ψηφιακές
Τι θα γινόταν αν η Microsoft άφηνε την OpenAI... ελεύθερη;
Η Microsoft έχει ήδη αρχίσει να μειώνει την εξάρτησή της από την OpenAI - Η Amazon, από την πλευρά της, θα ήταν ευτυχής να αποκτήσει πρόσβαση στα μοντέλα της OpenAI
Πώς η AI αλλάζει και τις τράπεζες
Η τεχνητή νοημοσύνη μετασχηματίζει και τον χρηματοπιστωτικό τομέα – 83% των ευρωπαϊκών τραπεζών ήδη τη χρησιμοποιούν