Ο παγκόσμιος οργανισμός INHOPE δουλεύει σκληρά για την απομάκρυνση του παράνομου περιεχομένου από το διαδίκτυο και την εξασφάλιση ότι εσείς και τα παιδιά σας δε θα βρεθείτε αντιμέτωποι με εικόνες και βίντεο παιδικής σεξουαλικής κακοποίησης. Για να βοηθήσει σε αυτή τη μάχη και να παράσχει υποστήριξη σε αυτή την σχολική χρονιά, ο INHOPE θέλει να διασφαλίσει ότι όλοι είναι ενήμεροι για την έννοια του υλικού παιδικής σεξουαλικής κακοποίησης (CSAM) και τι είδους περιεχόμενο πρέπει να καταγγέλλεται. Ο INHOPE επίσης προσφέρει συμβουλές για το πως να προστατεύσετε τις φωτογραφίες παιδιών και νέων από το να καταλήξουν στα χέρια κακόβουλων χρηστών.

Τι είναι το CSAM?

Το υλικό παιδικής σεξουαλικής κακοποίησης (CSAM) μπορεί να εξηγηθεί ως εικόνες ή βίντεο ενός ατόμου κάτω από 18 ετών που συμμετέχει ή παρουσιάζεται σαν να συμμετέχει σε σεξουαλική δραστηριότητα.

Κατανόηση των περιπλοκών του CSAM

Συχνά, το αποδεχτά νομικά περιεχόμενο πορνογραφικού περιεχομένου για ενηλίκους επισημαίνεται ρητά με την ετικέτα “έφηβος/η”, “μόλις 18” ή παρόμοιους όρους, αλλά μόνο εάν είναι σαφές ότι τα άτομα που εμφανίζονται στο υλικό είναι 18 ετών και άνω. Σε αυτές τις περιπτώσεις το περιεχόμενο δεν είναι CSAM και ως εκ τούτου δεν πρέπει να αναφέρεται στην γραμμή καταγγελιών.

Αν έχετε αμφιβολίες για οποιοδήποτε περιεχόμενο συναντήσατε καταγγείλτε το στην Ανοιχτή Γραμμή Καταγγελιών Παράνομου Περιεχομένου στο Διαδίκτυο, Safeline.gr. Εκεί ειδικοί της Γραμμής θα ελέγξουν το περιεχόμενο και αν είναι παράνομο θα προχωρήσουν στην προώθησή του στην Ελληνική Αστυνομία ή την Interpol.

Σε πολλές χώρες εικόνες παιδιών που έχουν φτιαχτεί για να τα προβάλλουν με ακατάλληλο τρόπο, εντελώς ή μερικώς γυμνά, και εικόνες που επικεντρώνονται στα γεννητικά τους όργανα είναι παράνομες και πρέπει να καταγγέλλονται στην Safeline.

Αν συνεχίζετε να έχετε αμφιβολίες για περιεχόμενο που συναντήσατε στο διαδίκτυο, τότε είναι πάντα καλύτερο να κάνετε μια καταγγελία. Η καταγγελία σας θα ελεγχθεί από κάποιον επαγγελματία, ο οποίος έχει τη δυνατότητα να κλείσει τον κύκλο της κακοποίησης.

 

Σκεφτείτε πριν βάλετε κάποιο #hashtag

Τα hashtags όπως #cleankids #splishsplash #pottytraining #naptime χρησιμοποιούνται συχνά από κακόβουλους χρήστες για να βρουν εικόνες παιδιών, σύμφωνα με μια νέα μελέτη του Child Rescue Coalition.

Υποδεικνύοντας λέξεις-κλειδιά ή θέματα ενδιαφέροντος, το hashtag μιας εικόνας την εισάγει σε έναν κατάλογο που έχει δημιουργηθεί από το κοινωνικό δίκτυο και κάνει την εικόνα να εντοπιστεί από άλλους χρήστες με ευκολία. Αυτά τα hashtags μπορούν να χρησιμοποιηθούν από τους γονείς όταν δημοσιεύουν εντελώς αθώες φωτογραφίες των παιδιών τους ή από εφήβους όταν δημοσιεύουν selfies, αλλά θα μπορούσαν επίσης να χρησιμοποιηθούν από άτομα με κακόβουλο ενδιαφέρον για παιδιά.

Οι αθώες εικόνες συχνά αντιγράφονται, επεξεργάζονται και χρησιμοποιούνται με παράνομο τρόπο. Όπως επεσήμανε ένας Ολλανδός αναλυτής ορισμένα CSAM που βλέπουν τακτικά περιλαμβάνουν μεγεθυμένες εικόνες σημείων του σώματος παιδιών που παίζουν στην παραλία.

Οι εικόνες που δημοσιεύονται στο διαδίκτυο μένουν εκεί για πάντα. Ο Παγκόσμιος Οργανισμός INHOPE ενθαρρύνει τους πάντες να σκέφτονται πριν δημοσιεύσουν περιεχόμενο στο διαδίκτυο. Αναρωτηθείτε, το παιδί σας θα είναι χαρούμενο αν αυτή η εικόνα παραμείνει διαθέσιμο στο διαδίκτυο ακόμα κι όταν θα έχει φτάσει την ηλικία των 30 ετών;

Ελέγξτε ότι οι ρυθμίσεις απορρήτου στους λογαριασμούς κοινωνικής δικτύωσης όλων των μελών της οικογενείας είναι ενεργοποιημένες σωστά – ιδανικά στη μέγιστη ασφάλεια και να είστε πολύ προσεκτικοί στις ετικέτες (hashtags) που βάζετε στις φωτογραφίες των παιδιών σας για να ελαχιστοποιήσετε την πιθανότητα κακόβουλοι χρήστες να ανακαλύψουν αυτές τις εικόνες.

Βοηθήστε μας να πετύχουμε το στόχο μας για ένα ασφαλές διαδίκτυο χωρίς CSAM. Μην το αγνοείς, κατάγγειλέ το!