Η καρδιά του cybersecurity της τεχνολογίας των τεχνολογικών νέων χτυπάει εδώ

Αρχική

AI και αναδυόμενες τεχνολογίες: Πως οι AI related απειλές θα πλάσουν το μέλλον της κυβερνοασφάλειας

Από την εισαγωγή του μοντέλου chatbot ChatGPT της OpenAI τον Νοέμβριο του 2022, ο εταιρικός κόσμος έχει επικεντρωθεί σε μεγάλο βαθμό στις δυνατότητες των εργαλείων παραγωγής τεχνητής νοημοσύνης (AI) για την αυτοματοποίηση και τον εξορθολογισμό διαφόρων επιχειρηματικών διαδικασιών.

Μια έκθεση που δημοσιεύθηκε από την Goldman Sachs στις αρχές του έτους, αποκάλυψε ότι έως και τα 2/3 των θέσεων εργασίας στις Ηνωμένες Πολιτείες και την Ευρώπη υπόκεινται σε κάποιο επίπεδο αυτοματισμού AI. Αλλά τι επιπτώσεις θα μπορούσε να έχει η άνοδος της τεχνητής νοημοσύνης για την ασφάλεια στον κυβερνοχώρο;

Ενώ η γενετική τεχνητή νοημοσύνη και τα μεγάλα γλωσσικά μοντέλα (LLM) προσφέρουν την υπόσχεση βελτιωμένης επιχειρηματικής αποτελεσματικότητας και εξοικονόμησης κόστους, εγείρουν επίσης ανησυχίες για τις αναδυόμενες απειλές που ενδέχεται να αντιμετωπίσουν οι οργανισμοί. Αυτό περιλαμβάνει την υιοθέτηση των ίδιων τεχνολογιών AI από εγκληματίες στον κυβερνοχώρο και κακόβουλους παράγοντες.

Δύο πρόσφατες εκθέσεις τονίζουν την αυξανόμενη ανησυχία μεταξύ των οργανισμών και της ανώτερης ηγεσίας τους σχετικά με τα εργαλεία παραγωγής τεχνητής νοημοσύνης και τον τρόπο με τον οποίο οι εγκληματίες ενδέχεται να τα εκμεταλλευτούν. Κατά συνέπεια, αυτή η ανησυχία επηρεάζει τον τρόπο με τον οποίο οι εταιρείες κατανέμουν τους πόρους τους για μέτρα κυβερνοασφάλειας και τις δεξιότητες που απαιτούνται από τους επαγγελματίες για την αντιμετώπιση αυτών των προκλήσεων.

Τον Σεπτέμβριο, η εταιρεία Proofpoint δημοσίευσε την έκθεσή της “Cybersecurity: The 2023 Board Perspective“, στην οποία συμμετείχαν περισσότερα από 650 μέλη του διοικητικού συμβουλίου από οργανισμούς με 5.000 ή περισσότερους υπαλλήλους στις Ηνωμένες Πολιτείες, τον Καναδά, την Ευρώπη και άλλες περιοχές.

Η έκθεση ανέφερε ότι σχεδόν το 59% των μελών του διοικητικού συμβουλίου αντιλαμβάνονται το ChatGPT και παρόμοια εργαλεία παραγωγής τεχνητής νοημοσύνης ως κινδύνους ασφαλείας για τις επιχειρήσεις τους. Επιπλέον, το 37% των διευθυντών του διοικητικού συμβουλίου πιστεύει ότι μία ενισχυμένη προστασία στον κυβερνοχώρο απαιτεί μεγαλύτερο budget.

Περίπου την ίδια περίοδο, η εταιρεία Darktrace δημοσίευσε μια έκθεση που δείχνει μείωση 11% στα phishing emails που υποδύονταν ανώτερα στελέχη μεταξύ Μαΐου και Ιουλίου. Ωστόσο, κατά την ίδια περίοδο, οι προσπάθειες ανάληψης του λογαριασμού (account takeover) αυξήθηκαν κατά 52% και η πλαστοπροσωπία εσωτερικών ομάδων IT αυξήθηκε κατά 19%. Ο λόγος για αυτή τη στροφή, είναι ότι οι εγκληματίες του κυβερνοχώρου έχουν αρχίσει να χρησιμοποιούν τεχνικές και εργαλεία παραγωγής τεχνητής νοημοσύνης για να βελτιώσουν τις τακτικές τους.

Αυτές οι αναφορές απεικονίζουν μια αλλαγή στον τρόπο με τον οποίο οι οργανισμοί ανταποκρίνονται στη γενετική τεχνητή νοημοσύνη. Ενώ αυτά τα εργαλεία μπορεί να είναι πολύτιμα για την αυτοματοποίηση των επιχειρηματικών διαδικασιών, είναι επίσης επιρρεπή σε χειραγώγηση.

Το AI θα διαμορφώσει την κυβερνοασφάλεια

Όλο και περισσότεροι πόροι καθώς και έμπειρο ανθρώπινο δυναμικό βρίσκονται στη διάθεση δημιουργίας μίας ισχυρής άμυνας στον κυβερνοχώρο, απέναντι σε προκείμενες cyber απειλές.

Καθώς οι οργανισμοί προσαρμόζονται στην αυξανόμενη επικράτηση της γενετικής τεχνητής νοημοσύνης και των εργαλείων αυτοματισμού, οι επαγγελματίες της τεχνολογίας θα πρέπει να βελτιώσουν τις δεξιότητές τους για να αντιμετωπίσουν αποτελεσματικά αυτές τις προκλήσεις.

Αυτό περιλαμβάνει αυξημένη εκπαίδευση ευαισθητοποίησης για την ασφάλεια σε όλους τους οργανισμούς για την αναγνώριση απειλών που προέρχονται από εγκληματίες του κυβερνοχώρου που χρησιμοποιούν γενετική τεχνητή νοημοσύνη. Επιπλέον, η ικανότητα ερμηνείας δεδομένων που συλλέγονται από την τεχνητή νοημοσύνη και διάκρισης γεγονότων από υλικό μυθοπλασίας, καθίσταται απαραίτητη.

Τα soft skills όπως η επικοινωνία, η διαχείριση αλλαγών και η εκπαίδευση θα γίνουν πιο κρίσιμες στην εποχή των επιθέσεων phishing που δημιουργούνται από την τεχνητή νοημοσύνη. Οι οργανισμοί θα πρέπει να περάσουν από μοντέλα εκπαίδευσης που δίνουν έμφαση στην ταχεία ανίχνευση και αναφορά απειλών.

Ο Zane Bond, Επικεφαλής Προϊόντος στην Keeper Security, τόνισε την ανάγκη οι εκάστοτε επαγγελματίες της κυβερνοασφάλειας να εξηγούν πώς λειτουργεί η γενετική τεχνητή νοημοσύνη στον ευρύτερο οργανισμό. Ενώ η τεχνητή νοημοσύνη μπορεί να παρέχει ακριβείς εκτιμήσεις, μπορεί να δυσκολεύεται να εξηγήσει την διαδικασία αναπαραγωγής τους. Επομένως, μια ολοκληρωμένη στρατηγική κυβερνοασφάλειας θα πρέπει να ενσωματώνει άλλες τεχνολογίες και ανθρώπινη τεχνογνωσία για να δημιουργήσει μια πολυεπίπεδη άμυνα έναντι των εξελισσόμενων απειλών.

Related Posts

Subcribe to our Newsletter

Αρχική

Ο κόσμος του cyber security και της τεχνολογίας χτυπάει εδώ!

Εγγραφείτε στο Newsletter του cybernews.gr για την εβδομαδιαία τεχνολογική ενημέρωση σας!