Με το ChatGPT το ψηφιακό έγκλημα θα γίνει πιο πειστικό

352

“Μπορεί το ChatGPT να αρχίσει να γράφει κακόβουλο λογισμικό; Ή μήπως μπορεί να πολεμήσει το κακόβουλο λογισμικό;” Σε αυτόν τον – εύλογο – προβληματισμό απαντά η εταιρεία κυβερνοασφάλειας ESET.

Ωστόσο, για να φτιάξεις έναν καλό μηχανισμό άμυνας κατά του κακόβουλου λογισμικού, δεν αρκεί μόνο η χρήση κάποιου ρομπότ

Όπως εξηγεί, η σύγχρονη τεχνολογία ρομπότ, το ChatGPT, είναι μια εντυπωσιακή εφαρμογή τεχνητής νοημοσύνης, που επιτρέπει τον διάλογο με τον χρήστη, καθώς μπορεί να δώσει αυτόματα απαντήσεις για νομικά θέματα, ερευνητικά έγγραφα, ιατρικά ζητήματα και πλήθος άλλων.

Ταυτόχρονα, ωστόσο, η εταιρεία θέτει το ερώτημα αν το ChatGPT μπορεί, πέρα από αυτά, να βοηθήσει και προς την κατεύθυνση των εκατοντάδων χιλιάδων δειγμάτων κακόβουλου λογισμικού, που βλέπουμε και επεξεργαζόμαστε καθημερινά ή θα είναι απλώς μια απομίμηση “ανθρώπινου λόγου”, που θα μπορεί κανείς εύκολα να την εντοπίσει ως fake.

Οι αναλυτές βλέπουν τρεις πιθανούς τομείς υιοθέτησης και χρήσης κακόβουλων προγραμμάτων. Αφενός με το ChatGPT οι απάτες phishing θα γίνουν ακόμα πιο πειστικές. Αφετέρου οι διαπραγματεύσεις για λύτρα θα αυτοματοποιηθούν. Και τέλος, οι τηλεφωνικές απάτες θα γίνουν ακόμα πιο πειστικές.

“Σε μια μονομαχία μηχανής εναντίον μηχανής, το ChatGPT φαίνεται υπερβολικά “καλό” για να μη θεωρηθεί σοβαρός υποψήφιος, που θα μπορεί να μπλοκάρει τα αντίπαλα μηχανήματα. Καθώς τόσο οι κακόβουλοι δράστες, όσο και εκείνοι που τους πολεμούν, χρησιμοποιούν τα πιο σύγχρονα μοντέλα μηχανικής μάθησης (ML), ήταν ζήτημα χρόνου ότι κάτι τέτοιο θα συνέβαινε”, αναφέρει η εταιρεία.

Όμως, όπως σχολιάζει η εταιρεία, για να φτιάξεις έναν καλό μηχανισμό άμυνας κατά του κακόβουλου λογισμικού, δεν αρκεί μόνο η χρήση κάποιου ρομπότ: “Πάντα χρειάζεται η ανθρώπινη παρέμβαση: το διαπιστώσαμε αυτό πριν από πολλά χρόνια, προς απογοήτευση των προμηθευτών λύσεων που χρησιμοποιούν μόνο μηχανική μάθηση (MLonly) – και επιμένουν να θολώνουν τα νερά αναφέροντας τα προϊόντα τους ως προϊόντα που κάνουν χρήση τεχνητής νοημοσύνης (artificial intelligence – AI)”.

Τα μοντέλα ML

“Αν και τα μοντέλα ML χρησιμοποιούνται τόσο για μια πρόχειρη ταξινόμηση. όσο και για μια πιο σύνθετη ανάλυση, απέχουν πολύ από το να χαρακτηριστούν ως “το μαγικό κουμπί που θα εξοντώνει κακόβουλα λογισμικά”. Το κακόβουλο λογισμικό δεν είναι και τόσο απλό”, τονίζουν οι αναλυτές της εταιρείας.

“Πόσο καλό θα είναι το κακόβουλο λογισμικό που θα δημιουργηθεί από το ChatGPT, εάν βέβαια είναι κάτι τέτοιο δυνατό;” ρώτησε η ΕSET τους ειδικούς της. Σύμφωνα με την απάντησή τους, απέχουμε πολύ από το στάδιο που θα υπάρξει “κακόβουλο λογισμικό που παράγεται πλήρως από τεχνητή νοημοσύνη”, αν και το ChatGPT είναι αρκετά καλό στην υπόδειξη κώδικα, στη δημιουργία παραδειγμάτων και αποσπασμάτων κώδικα, στην αποσφαλμάτωση και βελτιστοποίηση κώδικα, ακόμη και στην αυτοματοποίηση της τεκμηρίωσης.

Τι γίνεται όμως με τις πιο προηγμένες λειτουργίες; “Δεν ξέρουμε πόσο καλό είναι στις τεχνικές που εμποδίζουν ανιχνεύσεις (obfuscation). Ορισμένα από τα παραδείγματα αφορούν γλώσσες προγραμματισμού scripting, όπως η Python. Αλλά είδαμε το ChatGPT να “αντιστρέφει” το νόημα του αποσυναρμολογημένου κώδικα που συνδέεται με το IDA Pro – και αυτό έχει πολύ ενδιαφέρον”, εξηγούν οι ειδικοί.

Πηγή: sepe.gr