Βρετανοί αξιωματούχοι προειδοποιούν τις επιχειρήσεις σχετικά με την ενσωμάτωση chatbots που λειτουργούν με τεχνητή νοημοσύνη, καθώς έρευνες έχουν αποδείξει ότι μπορούν να ξεγελαστούν προκειμένου να τελέσουν επιβλαβείς εργασίες.
Σε αναρτήσεις του, το Εθνικό Κέντρο Κυβερνοασφάλειας της Βρετανίας (NCSC) δήλωσε ότι οι εμπειρογνώμονες δεν έχουν ακόμα αντιληφθεί πλήρως τα προβλήματα ασφαλείας που σχετίζονται με αλγόριθμους που μπορούν να δημιουργούν αλληλεπιδράσεις οι οποίες ακούγονται σαν ανθρώπινες – μεταγλωττισμένα μεγάλα γλωσσικά μοντέλα, ή LLMs.
Τα εργαλεία που τροφοδοτούνται με τεχνητή νοημοσύνη βλέπουν την πρώιμη χρήση τους ως chatbot που ορισμένοι θεωρούν ότι είναι ικανά να αντικαθιστούν όχι μόνο τις αναζητήσεις στο Διαδίκτυο, αλλά και τις εργασίες εξυπηρέτησης πελατών και τις κλήσεις πωλήσεων.
Το NCSC δήλωσε ότι αυτό μπορεί να συνεπάγεται κινδύνους, ιδίως αν τέτοια μοντέλα ενσωματωθούν σε άλλα στοιχεία των επιχειρηματικών διαδικασιών του οργανισμού. Ακαδημαϊκοί και ερευνητές έχουν επανειλημμένα βρει τρόπους να αποσπούν την προσοχή των chatbots δίνοντας τους παράνομες εντολές ή εξαπατώντας τους να παρακάμψουν τα δικά τους ενσωματωμένα μέτρα προστασίας.
Για παράδειγμα, ένα chatbot που λειτουργεί με τεχνητή νοημοσύνη και έχει αναπτυχθεί από μια τράπεζα μπορεί να εξαπατηθεί ώστε να πραγματοποιήσει μια μη εξουσιοδοτημένη συναλλαγή, εάν ένας χάκερ δομήσει το ερώτημά του με τον κατάλληλο τρόπο.
“Οργανισμοί που δημιουργούν υπηρεσίες που χρησιμοποιούν LLMs πρέπει να είναι προσεκτικοί, με τον ίδιο τρόπο που θα ήταν αν χρησιμοποιούσαν ένα προϊόν ή βιβλιοθήκη κώδικα που βρίσκεται σε δοκιμαστική έκδοση,” ανέφερε το NCSC σε μια από τις αναρτήσεις του, αναφερόμενο σε πειραματικές εκδόσεις λογισμικού.
“Μπορεί να μην επιτρέψουν σε αυτό το προϊόν να συμμετέχει σε συναλλαγές εκ μέρους του πελάτη και, αναμφίβολα, δεν θα του εμπιστεύονταν πλήρως. Παρόμοια προσοχή πρέπει να ισχύει και για τα LLMs.”
Οι αρχές σε όλο τον κόσμο αντιμετωπίζουν την ανάπτυξη των LLMs, όπως το ChatGPT της OpenAI, τα οποία οι επιχειρήσεις ενσωματώνουν σε μια μεγάλη ποικιλία υπηρεσιών, συμπεριλαμβανομένων των πωλήσεων και της εξυπηρέτησης πελατών.
Μια πρόσφατη δημοσκόπηση του Reuters/Ipsos έδειξε ότι πολλοί υπάλληλοι εταιρειών χρησιμοποιούν εργαλεία όπως το ChatGPT για βασικές εργασίες, όπως η σύνταξη ηλεκτρονικών μηνυμάτων, η σύνοψη εγγράφων και η προκαταρκτική έρευνα.
Περίπου 10% από τους ερωτηθέντες ανέφεραν ότι τα αφεντικά τους απαγόρευσαν ρητά τη χρήση εξωτερικών εργαλείων τεχνητής νοημοσύνης, ενώ το ένα τέταρτο δεν γνώριζε εάν η εταιρεία τους επέτρεπε τη χρήση της τεχνολογίας.
Ο Oseloka Obiora, chief technology officer στην εταιρεία κυβερνοασφάλειας RiverSafe, δήλωσε ότι ο αγώνας για την ενσωμάτωση της τεχνητής νοημοσύνης στις επιχειρηματικές πρακτικές θα είχε “καταστροφικές συνέπειες” εάν οι επιχειρηματικοί ηγέτες αποτύγχαναν να εισαγάγουν τους απαραίτητους ελέγχους.
“Αντί να βιαστούν να ενσωματώσουν τις τελευταίες τάσεις στην τεχνητή νοημοσύνη, οι υψηλόβαθμοι εκτελεστικοί θα πρέπει να σκεφτούν διπλά” δήλωσε.
“Αξιολογήστε τα οφέλη και τους κινδύνους και εφαρμόστε την απαραίτητη προστασία ώστε να εξασφαλίσετε ότι η οργάνωση είναι ασφαλής από κινδύνους στον κυβερνοχώρο.”