Στις 7 Μαρτίου 2024 πραγματοποιήθηκε σεμινάριο σχετικά με τη δημιουργία υλικού παιδικής σεξουαλικής κακοποίησης (CSAM) μέσω τεχνολογίας τεχνητής νοημοσύνης. Ομιλητής του σεμιναρίου ήταν εκπρόσωπος του Internet Watch Foundation (IWF), οργανισμός που λειτουργεί την Γραμμή Καταγγελιών για το παράνομο περιεχόμενο στο διαδίκτυο του Ηνωμένου Βασίλειου. Το σεμινάριο παρακολούθησαν πάνω από 400 άτομα, ανάμεσά τους και μέλη της SafeLine. Ο ομιλητής παρουσίασε τους τρόπους με τους οποίους κάποιοι εκμεταλλεύονται την τεχνολογία της τεχνητή νοημοσύνη για τη δημιουργία επιβλαβούς περιεχομένου και μοιράστηκε πληροφορίες από το τρόπο χειρισμού τέτοιων καταγγελιών από το IWF.

Γιατί δεν είναι μόνο επιβλαβές αλλά και παράνομο;

Υπάρχει σε κάποιους η πεποίθηση ότι το CSAM που δημιουργείται με την χρήση της τεχνολογίας της τεχνητής νοημοσύνης μπορεί και να μην έχει αρνητικές επιπτώσεις, εφόσον  ικανοποιεί τις φαντασιώσεις των δραστών χωρίς να βλάψει τα πραγματικά παιδιά. Ωστόσο, όπως τονίστηκε, αυτά τα συστήματα συχνά εκπαιδεύονται σε πραγματικό παράνομο περιεχόμενο, διαιωνίζοντας τον κύκλο της παιδικής σεξουαλικής κακοποίησης, ενώ μπορεί ακόμα και να κανονικοποιούν την κακοποίηση παιδιών. Κατά συνέπεια, αντί αυτό το υλικό να μετριάσει τους κινδύνους για τα παιδιά, στην πραγματικότητα είναι πιο πιθανό να παροτρύνει τους δράστες να ενεργήσουν σύμφωνα με τις φαντασιώσεις τους.

Υπάρχει επίσης γενικότερη ανησυχία σχετικά με τον τρόπο με τον οποίο το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη επηρεάζει τις περιπτώσεις σεξουαλικού εκβιασμού (sextortion). Ο IWF εντόπισε αύξηση των καταγγελιών από νέους που κατήγγελλαν εικόνες τους επεξεργασμένες με εργαλεία AI. Αυτό αντανακλά την αυξανόμενη τάση των περιπτώσεων εκβιασμού σε παγκόσμιο επίπεδο και εγείρει ερωτήματα σχετικά με το πώς η τεχνητή νοημοσύνη μπορεί να διευκολύνει διάφορους τύπους διαδικτυακής κακοποίησης.

Προσδιορισμός περιεχομένου που δημιουργείται από AI

Η ρεαλιστική φύση του περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη καθιστά δύσκολη τη διάκριση από το «πραγματικό» υλικό, δημιουργώντας προκλήσεις για τους αναλυτές και τις αστυνομικές αρχές στο χειρισμό των καταγγελιών. Σε πολλές χώρες το AI CSAM δεν εμπίπτει στο ίδιο νομικό καθεστώς, αλλά στο Ηνωμένο Βασίλειο, όπως και στην Ελλάδα, το CSAM που δημιουργείται από την τεχνητή νοημοσύνη είναι παράνομο και αντιμετωπίζεται το ίδιο τρόπο όπως και οι «πραγματικές» εικόνες. Αυτό σημαίνει ότι όλες οι παράνομες εικόνες που δημιουργούνται από τεχνητή νοημοσύνη επισημαίνονται ως ΑΙ από τους αναλυτές όταν διαβιβάζονται στις εθνικές αρχές επιβολής του νόμου και στους διεθνείς εταίρους.

Το μέλλον της τεχνητής νοημοσύνης

Τα τελευταία χρόνια, γίναμε μάρτυρες της τεράστιας προόδου που έχει σημειώσει η τεχνητή νοημοσύνη στη δημιουργία εντελώς ρεαλιστικών εικόνων. Ενώ επί του παρόντος, τα συστήματα κειμένου σε εικόνα αποτελούν την κύρια απειλή στο διαδικτυακό τοπίο προστασίας των παιδιών, πρέπει να είμαστε προετοιμασμένοι για την ταχεία ανάπτυξη συστημάτων κειμένου σε βίντεο.