
Tα τελευταία χρόνια, όλο και περισσότεροι χρησιμοποιούν τα μεγάλα γλωσσικά μοντέλα (LLM – Large Language Model) όπως το ChatGPT. Έρευνα της Kaspersky στη Ρωσία αποκάλυψε ότι το 11% των ερωτηθέντων έχει χρησιμοποιήσει chatbots, ενώ σχεδόν το 30% θεωρεί ότι είναι πιθανό διάφορες δουλειές να αντικατασταθούν από τη χρήση αυτής της τεχνολογίας. Άλλες έρευνες δείχνουν ότι το 50% των Βέλγων που κάνουν κάποια δουλειά γραφείου και το 65% στο Ηνωμένο Βασίλειο χρησιμοποιούν καθημερινά το ChatGPT.
Επιπλέον, η ανοδική τάση που εμφανίζει η αναζήτηση του όρου «ChatGPT» στο Google Trends επιβεβαιώνει την καθημερινή χρήση του ChatGPT, πιθανότατα για εργασιακούς σκοπούς.
Η AI κάνει καλό στις επιχειρήσεις – Τι δείχνει μελέτη της Bain & Company
Ωστόσο, η αυξανόμενη χρήση των chatbots στον εργασιακό χώρο δημιουργεί ένα κρίσιμο ερώτημα: Είναι ασφαλές για μια επιχείρηση να μοιράζεται ευαίσθητα εταιρικά δεδομένα; Οι ειδικοί της Kaspersky εντόπισαν τέσσερις βασικούς κινδύνους που σχετίζονται με τη χρήση του ChatGPT σε εργασιακό περιβάλλον.
Υποκλοπή δεδομένων ή παραβίαση από την πλευρά του παρόχου
Παρότι τα chatbots αποτελούν προϊόν των μεγάλων εταιρειών τεχνολογίας, ακόμη και αυτές δεν είναι απόλυτα ασφαλείς απέναντι σε κινδύνους όπως το χακάρισμα ή η υποκλοπή δεδομένων. Για παράδειγμα, υπήρξε ένα περιστατικό κατά το οποίο οι χρήστες του ChatGPT ήταν σε θέση να δουν μηνύματα από το ιστορικό άλλων συνομιλιών.
Διαρροή δεδομένων μέσω chatbots
Θεωρητικά, οι συνομιλίες με chatbots μπορεί να χρησιμοποιηθούν για την εκπαίδευση μελλοντικών μοντέλων. Τα LLMs έχουν τη δυνατότητα να απομνημονεύουν αυτόματα αριθμητικές ακολουθίες, μεταξύ των οποίων και οι αριθμοί τηλεφώνου που όμως δεν βοηθούν κάπου στη βελτίωση των μοντέλων. Αντιθέτως, τέτοιου είδους λειτουργίες κρύβουν κινδύνους για την ιδιωτικότητα. Συνεπώς, κατά τη δοκιμή των μοντέλων είναι πιθανό τέτοιου είδους δεδομένα, με η χωρίς την πρόθεσή του εκάστοτε χρήστη, να διαρρεύσουν.
Κακόβουλος πελάτης
Αυτό αποτελεί μεγάλη ανησυχία σε περιοχές όπου οι επίσημες ιστοσελίδες όπως το ChatGPT είναι αποκλεισμένες. Οι χρήστες ενδέχεται να καταφύγουν σε ανεπίσημες εναλλακτικές λύσεις, όπως εφαρμογές, ιστότοπους ή bot messenger και να κατεβάσουν malware χωρίς να το αντιληφθούν.
Χακάρισμα λογαριασμού
Οι επιτιθέμενοι μπορούν να εισέλθουν στους λογαριασμούς των εργαζομένων, αποκτώντας πρόσβαση στα δεδομένα τους, μέσω επιθέσεων phishing ή credential stuffing. Επιπλέον, το Kaspersky Digital Footprint Intelligence εντοπίζει τακτικά δημοσιεύσεις σε φόρουμ του dark web που πωλούν πρόσβαση σε λογαριασμούς chatbot.
Συνοψίζοντας τα παραπάνω, η απώλεια δεδομένων αποτελεί μεγάλη ανησυχία για την προστασία του προσωπικού απορρήτου τόσο για τους χρήστες όσο και για τις επιχειρήσεις όταν χρησιμοποιούν chatbots. Οι προγραμματιστές οφείλουν να εξηγούν τον τρόπο με τον οποίο χρησιμοποιούνται τα δεδομένα για model training στις πολιτικές απορρήτου τους. Η ανάλυση της Kaspersky σε δημοφιλή chatbots, συμπεριλαμβανομένων των ChatGPT, ChatGPT API, Anthropic Claude, Bing Chat, Bing Chat Enterprise, You.com, Google Bard και Genius App by Alloy Studios, δείχνει ότι στον τομέα B2B υπάρχουν υψηλότερα πρωτοκολλά ασφάλειας και προστασίας του απορρήτου, ως αποτέλεσμα του μεγαλύτερου ρίσκου που υπάρχει για την υποκλοπή εταιρικών δεδομένων. Κατά συνέπεια, οι όροι και οι προϋποθέσεις για τη χρήση, τη συλλογή, την αποθήκευση και την επεξεργασία δεδομένων επικεντρώνονται περισσότερο στην προστασία σε σύγκριση με τον τομέα B2C. Οι λύσεις B2B της παρούσας μελέτης συνήθως δεν αποθηκεύουν αυτόματα το ιστορικό συνομιλιών και σε ορισμένες περιπτώσεις δεν αποστέλλονται δεδομένα στους διακομιστές της εταιρείας, καθώς το chatbot λειτουργεί τοπικά στο δίκτυο του πελάτη.
Συμβουλές προστασίας
Για να εξακολουθήσετε να απολαμβάνετε τα οφέλη από τη χρήση των chatbots και να παραμείνετε ασφαλείς, οι ειδικοί της Kaspersky συνιστούν επίσης:
- Χρησιμοποιήστε ισχυρούς, μοναδικούς κωδικούς πρόσβασης: Δημιουργήστε σύνθετους κωδικούς πρόσβασης για κάθε λογαριασμό σας και αποφύγετε τη χρήση προσωπικών δεδομένων όπως γενέθλια ή ονόματα.
- Προσοχή στο phishing: Να είστε προσεκτικοί με αυτόκλητα email, μηνύματα ή κλήσεις που ζητούν προσωπικές πληροφορίες. Επαληθεύστε την ταυτότητα του αποστολέα πριν μοιραστείτε ευαίσθητα δεδομένα.
- Εκπαιδεύστε τους εργαζομένους σας: Οι εργαζόμενοι θα πρέπει να ενημερώνονται για τις πιο πρόσφατες διαδικτυακές απειλές και τις βέλτιστες πρακτικές για να παραμένουν ασφαλείς στο διαδίκτυο.
- Διατηρείτε το λογισμικό σας ενημερωμένο: Ενημερώστε τακτικά το λειτουργικό σας σύστημα, τις εφαρμογές και τα προγράμματα προστασίας από ιούς. Αυτές οι ενημερώσεις συχνά περιέχουν διορθώσεις ασφαλείας.
- Περιορίστε την κοινή χρήση εταιρικών πληροφοριών: Να είστε προσεκτικοί όσον αφορά την κοινοποίηση προσωπικών πληροφοριών στα μέσα κοινωνικής δικτύωσης ή σε δημόσια φόρουμ. Παρέχετε τις πληροφορίες αυτές μόνο όταν είναι απολύτως απαραίτητο.
- Επαληθεύστε τις διευθύνσεις URL και τους ιστότοπους: Ελέγξτε δύο φορές τη διεύθυνση URL των ιστότοπων που επισκέπτεστε, ειδικά πριν εισαγάγετε στοιχεία σύνδεσης ή πραγματοποιήσετε αγορές.
- Χρησιμοποιήστε εταιρική λύση ασφαλείας: Για να αποτρέψετε τους εργαζόμενους από το να συμβουλεύονται ανεξάρτητα μη αξιόπιστα chatbots για εργασιακούς σκοπούς, μπορείτε να χρησιμοποιήσετε μια λύση ασφαλείας με ανάλυση υπηρεσιών cloud.


Latest News

Ποια κατηγορία AI «φέρνει» έσοδα 57 δισ. δολ. τα επόμενα τρία χρόνια
Σύμφωνα με την μελέτη της Juniper, προβλέπεται ότι τα έσοδα αυτά, θα προέλθουν από τα οφέλη της ενσωμάτωσης AI Agents στις διάφορες υπηρεσίες

Πώς η τεχνητή νοημοσύνη αλλάζει για τα καλά τα logistics - Ο ρόλος των ρομπότ
Η πολυεθνική εταιρεία logistics DHL χρησιμοποιεί τη ρομποτική και την τεχνητή νοημοσύνη στις αποθήκες της

Προχωρά την ανάπτυξη των δικών της AI μικροτσίπ η Meta Platforms
Η Meta Platforms έχει ξεκινήσει μια μικρή παραγωγή του τσιπ και σχεδιάζει να την αυξήσει για χρήση σε ευρεία κλίμακα, αν η δοκιμή πάει καλά

Η καλά κρυμμένη «συνταγή» της τεχνητής νοημοσύνης - Πώς οι εταιρείες παράγουν φθηνές λύσεις
Πόσο κοστίζει να ξεκινήσεις μια εταιρεία στην τεχνητή νοημοσύνη; - Η απάντηση κάθε μέρα όλο και λιγότερο

H Foxconn κατασκευάζει το FoxBrain, το δικό της μοντέλο τεχνητής νοημοσύνης
Στην προσπάθεια της Foxconn, συμμετείχε και η Nvidia παρεχοντας υποστήριξη μέσω του υπερυπολογιστή της στην Ταϊβάν και με τεχνικές συμβουλές

Γκάζι πατάει η Meta για ΑΙ με φωνητικές λειτουργίες
Βελτιωμένα χαρακτηριστικά εισάγει η Meta καθώς στοιχηματίζει στην τεχνολογία που οδηγεί την ανάπτυξη των λεγόμενων «πρακτόρων» AI

Νέο εμπόδιο για την Apple - Καθυστερεί τις υπηρεσίες AI στο iPhone
Η εξέλιξη αυτή σηματοδοτεί την τελευταία από μια σειρά οπισθοδρομήσεων στον οδικό χάρτη λογισμικού της Apple

Φρένο στις προσπάθειες Μασκ να αποτρέψει την OpenAI να γίνει κερδοσκοπική οντότητα
Δικαστής στην Καλιφόρνια αποφάσισε ότι ο Ίλον Μασκ δεν μπορεί να προχωρήσει στις νομικές προσπάθειές του να εμποδίσει την OpenAI να μετατραπεί σε κερδοσκοπική οντότητα.

Data Centers κατασκευάζει η Microsoft στις σκανδιναβικές χώρες
Η Microsoft αλλάζει στρατηγική στην κατασκευή των Data Centers και πλέον επιλέγει περιοχές με προσιτή και «καθαρή» ενέργεια

Η Google δοκιμάζει νέα μηχανή αναζήτησης
Το πειραματικό «ΑΙ Mode», προς το παρόν διαθέσιμο μόνο στους συνδρομητές του Google One AI Premium, προσφέρει περιλήψεις των αποτελεσμάτων αναζήτησης μαζί με σχετικούς συνδέσμους.