Η ραγδαία εξάπλωση των μέσων κοινωνικής δικτύωσης έχει μεταμορφώσει τον τρόπο με τον οποίο επικοινωνούν, ενημερώνονται και κοινωνικοποιούνται οι ανήλικοι. 

Ωστόσο, πίσω από την εικόνα της ψηφιακής διασύνδεσης, αναδύονται σοβαροί κίνδυνοι για την ψυχική υγεία, την ασφάλεια και την ομαλή ανάπτυξη των παιδιών και των εφήβων. Η έκθεση σε ακατάλληλο περιεχόμενο, ο διαδικτυακός εκφοβισμός (cyberbullying), η υπερβολική χρήση και ο εθισμός, καθώς και η συλλογή προσωπικών δεδομένων από αλγοριθμικά συστήματα, συνθέτουν ένα ανησυχητικό τοπίο που έχει κινητοποιήσει κυβερνήσεις σε ολόκληρο τον κόσμο. Τα τελευταία χρόνια,  και ιδιαίτερα την περίοδο 2024-2026,  το ζήτημα έχει μετατραπεί από κοινωνική ανησυχία σε πολιτική και νομοθετική προτεραιότητα, με τα κράτη να καλούνται να ρυθμίσουν αυστηρότερα τη λειτουργία των πλατφορμών και να ενισχύσουν την προστασία των ανηλίκων.

Οι κίνδυνοι της ανεξέλεγκτης χρήσης

Επιστημονικές μελέτες και εκθέσεις διεθνών οργανισμών συνδέουν τη συστηματική χρήση κοινωνικών δικτύων από ανηλίκους με: αυξημένα επίπεδα άγχους, κατάθλιψης και διαταραχών αυτοεικόνας, ενίσχυση εθιστικών συμπεριφορών λόγω αλγορίθμων που προωθούν αδιάκοπη κατανάλωση περιεχομένου, φαινόμενα ψηφιακής παρενόχλησης και κοινωνικής απομόνωσης, έκθεση σε επικίνδυνες «προκλήσεις», παραπληροφόρηση ή περιεχόμενο αυτοτραυματισμού, απώλεια ελέγχου προσωπικών δεδομένων σε πολύ νεαρές ηλικίες.

Απέναντι σε αυτά τα δεδομένα, η κρατική παρέμβαση εμφανίζεται πλέον ως αναγκαία και όχι ως περιορισμός της ελευθερίας.

Το παράδειγμα της Αυστραλίας 

Η Αυστραλία έγινε διεθνές σημείο αναφοράς, εφαρμόζοντας από το 2025 απαγόρευση δημιουργίας λογαριασμών κοινωνικής δικτύωσης για παιδιά κάτω των 16 ετών. Ο νόμος μεταφέρει το βάρος συμμόρφωσης στις ίδιες τις πλατφόρμες, προβλέποντας βαριά πρόστιμα σε όσες αποτυγχάνουν να προστατεύσουν τους ανήλικους χρήστες.


Διαβάστε επίσης: Απαγόρευση Social Media Αυστραλία: Τι ισχύει για τουρίστες και ξένους μαθητές

Τι ισχύει στην Ευρώπη;

Στην Ελλάδα, το τελευταίο διάστημα έχει ανοίξει έντονος δημόσιος διάλογος για την καθιέρωση ηλικιακών ορίων στη χρήση των μέσων κοινωνικής δικτύωσης. Προτάσεις που βρίσκονται στο τραπέζι προβλέπουν περιορισμό της αυτόνομης πρόσβασης κάτω των 15 ετών και σύνδεση της χρήσης με γονική συναίνεση και επαλήθευση ηλικίας. Παράλληλα, η χώρα συμμετέχει στις ευρωπαϊκές πρωτοβουλίες που απορρέουν από τον Κανονισμό για τις Ψηφιακές Υπηρεσίες (DSA), ο οποίος επιβάλλει στις πλατφόρμες αυξημένες υποχρεώσεις για την προστασία των ανηλίκων.

Η Κύπρος εξετάζει την αύξηση του ηλικιακού ορίου για αυτόνομη χρήση κοινωνικών δικτύων από τα 14 στα 16 έτη, εναρμονιζόμενη με τη γενικότερη ευρωπαϊκή τάση. Παράλληλα, συμμετέχει σε πιλοτικά προγράμματα της Ευρωπαϊκής Ένωσης για την ανάπτυξη συστημάτων ψηφιακής επαλήθευσης ηλικίας, με στόχο την αποτροπή ψευδών δηλώσεων ηλικίας από ανηλίκους.

Η Γαλλία αποτελεί μία από τις πιο αυστηρές περιπτώσεις στην Ευρώπη. Το 2025 ψηφίστηκε νόμος που απαγορεύει τη χρήση κοινωνικών δικτύων από παιδιά κάτω των 15 ετών, εκτός αν υπάρχει ρητή γονική άδεια. Το μέτρο συνοδεύεται από υποχρέωση των πλατφορμών να εφαρμόζουν αποτελεσματικούς ελέγχους ηλικίας, ενώ εντάσσεται σε ένα ευρύτερο πλαίσιο πολιτικών που περιλαμβάνουν και περιορισμούς στη χρήση κινητών τηλεφώνων στα σχολεία.

Στην Ισπανία βρίσκεται σε εξέλιξη θεσμική συζήτηση για υποχρεωτική επαλήθευση ηλικίας και ενσωμάτωση εργαλείων γονικού ελέγχου στις συσκευές. Η ισπανική κυβέρνηση έχει ταχθεί υπέρ μιας κοινής ευρωπαϊκής λύσης, ώστε να αποφευχθούν κατακερματισμένες εθνικές ρυθμίσεις.

Η Ιταλία εστιάζει κυρίως στην ενίσχυση των μηχανισμών ελέγχου περιεχομένου και στην αυστηρότερη εφαρμογή των κανόνων προστασίας ανηλίκων, στο πλαίσιο τόσο της εθνικής νομοθεσίας όσο και των ευρωπαϊκών κανονισμών. Οι αρχές έχουν αυξήσει τις πιέσεις προς τις πλατφόρμες για πιο ενεργό ρόλο στην πρόληψη ψηφιακών κινδύνων.

Η Δανία κινείται προς την κατεύθυνση περιορισμού της χρήσης κοινωνικών δικτύων για παιδιά κάτω των 15 ετών, με τη δυνατότητα εξαίρεσης μόνο μέσω γονικής συναίνεσης. Το ζήτημα αντιμετωπίζεται ως θέμα δημόσιας υγείας και παιδικής προστασίας.

Στη Γερμανία, η προστασία των ανηλίκων στο διαδίκτυο βασίζεται σε ένα ισχυρό θεσμικό πλαίσιο, με κεντρικό ρόλο του Ομοσπονδιακού Οργανισμού Προστασίας Παιδιών και Νέων Μέσων. Η χώρα δεν έχει επιβάλει γενική απαγόρευση, αλλά εφαρμόζει αυστηρή εποπτεία περιεχομένου και κυρώσεις για υλικό που θεωρείται επιβλαβές.

Η Φινλανδία ακολουθεί μια διαφορετική, περισσότερο εκπαιδευτική και προληπτική προσέγγιση. Αντί για καθολικές απαγορεύσεις, το φινλανδικό κράτος επενδύει συστηματικά στην ψηφιακή παιδεία από τις μικρές ηλικίες, εντάσσοντας την κριτική χρήση των μέσων κοινωνικής δικτύωσης στο σχολικό πρόγραμμα.

Παράλληλα, υποστηρίζει αυστηρή εφαρμογή των ευρωπαϊκών κανόνων (DSA και GDPR), ενώ συμμετέχει ενεργά στη συζήτηση για κοινά ευρωπαϊκά συστήματα επαλήθευσης ηλικίας. Η φιλοσοφία της χώρας βασίζεται στην ενδυνάμωση των παιδιών, χωρίς να αποκλείεται μελλοντική αυστηρότερη ρύθμιση αν τα δεδομένα το απαιτήσουν.

Πέρα από τις παραπάνω, έντονος διάλογος βρίσκεται σε εξέλιξη και σε: Βέλγιο: προτάσεις για ηλικιακά όρια και έλεγχο αλγορίθμων, Ολλανδία: συστάσεις για αποφυγή social media κάτω των 15 ετών, Σουηδία: δημόσιες καμπάνιες κατά της υπερβολικής χρήσης από παιδιά, Ιρλανδία: αυστηρός ρυθμιστικός ρόλος της Αρχής Προστασίας Δεδομένων για πλατφόρμες με έδρα τη χώρα, Αυστρία και Πορτογαλία: κοινοβουλευτικές συζητήσεις για γονική συναίνεση και επαλήθευση ηλικίας.

Το Ευρωπαϊκό Κοινοβούλιο υιοθέτησε πρόταση με την οποία ζητείται η απαγόρευση των μέσων κοινωνικής δικτύωσης για εφήβους κάτω των 16 ετών, καθώς οι νομοθέτες αναλογίζονται τις επιπτώσεις στην ψυχική υγεία και την πολιτική των διαδικτυακών συζητήσεων

Η έκθεση εγκρίθηκε με μεγάλη πλειοψηφία 483 ψήφων υπέρ, 92 κατά και 86 αποχές σε μια μη δεσμευτική ψηφοφορία που πραγματοποιήθηκε στο Στρασβούργο.

Η πρόταση προτείνει τα παιδιά και οι έφηβοι κάτω των 16 ετών να μην έχουν πρόσβαση στα μέσα κοινωνικής δικτύωσης, στις πλατφόρμες ανταλλαγής βίντεο και στα AI chat bots.

Τι ισχύει για Meta (Facebook, Instagram, Messenger, Threads)

Η Μeta έχει εφαρμόσει ειδικούς «Teen Accounts» για χρήστες κάτω των 18 ετών, με αυτόματη ενεργοποίηση αυξημένων περιορισμών ιδιωτικότητας και δυνατότητες γονικού ελέγχου. Οι χρήστες κάτω των 16 ετών χρειάζονται γονική συναίνεση για να χαμηλώσυν τα όρια ασφαλείας.

Η Meta αφαίρεσε 635,000 λογαριασμούς με σεξουαλικό περιεχόμενο παιδιών και χρησιμοποιεί εργαλεία AI για να αναγνωρίζει υποτιθέμενους ανηλίκους που μπορεί να έχουν δηλώσει λάθος ηλικία.

Το Instagram υιοθετεί σύστημα «PG-13», όπου οι χρήστες κάτω των 18 αυτόματα λαμβάνουν πιο «ασφαλή» προβολή περιεχομένου με περιορισμούς σε ρηχά ή επίμαχα θέματα, με δυνατότητα γονικής συγκατάθεσης αλλαγής.

 H Meta έχει προχωρήσει σε πολλαπλές πολιτικές ειδικά για εφήβους, αν και η υλοποίηση και η αποτελεσματικότητα αυτών των μέτρων έχουν δεχθεί κριτική και βρίσκονται υπό έλεγχο από ρυθμιστικές αρχές λόγω ελλείψεων.

Το YouTube χρησιμοποιεί AI για εκτίμηση ηλικίας και αυτόματους περιορισμούς σε λογαριασμούς που εκτιμώνται ως ανήλικοι, όπως αποκλεισμό ηλικιακά περιορισμένου περιεχομένου και μείωση διαφημίσεων.

Αυτές οι λειτουργίες αποτελούν μέρος ευρύτερης προσπάθειας που συνδέεται με τις νέες νομοθεσίες σε ΗΠΑ, ΗΒ και την Ευρώπη, και με κατευθύνσεις της Ε.Ε. για προστασία ανηλίκων στο διαδίκτυο.

Αξίζει να σημειωθει πως το YouTube δεν διακόπτει τη συνολική πρόσβαση, αλλά περιορίζει την προβολή συγκεκριμένου περιεχομένου και διαφημίσεων για νεότερους χρήστες.

Το TikTok έχει αναπτύξει συστήματα ανίχνευσης ηλικίας στην Ευρώπη που αξιολογούν την ηλικία χρήστη βάσει προφίλ, συμπεριφοράς και ανθρώπινης επαλήθευσης.

Σε πολλές χώρες οι τοπικές αρχές ζητούν να ενισχυθούν αυτές οι λύσεις με πιο αποτελεσματική τεχνική επαλήθευση, ώστε να αποτρέπεται η πρόσβαση παιδιών κάτω του νόμιμου ορίου.  TikTok έχει κινηθεί προς πιο «ελεγχόμενες» μορφές ανίχνευσης ηλικίας, αλλά αυτή η προσέγγιση προκαλεί αντιπαραθέσεις για ιδιωτικότητα και ακρίβεια.

Άλλες πλατφόρμες που βρίσκονται υπό έλεγχο ή έχουν ληφθεί πρωτοβουλίες από ρυθμιστικές αρχές.

Η Ευρωπαϊκή Επιτροπή έχει αποστείλει αιτήματα πληροφόρησης ή εντολές συμμόρφωσης σε αρκετές υπηρεσίες για να εξηγήσουν τα μέτρα προστασίας ανηλίκων που εφαρμόζουν — μεταξύ άλλων: Snapchat, YouTube, Apple App Store, Google Play.

Αυτή η διαδικασία σηματοδοτεί πιέσεις ώστε να ληφθούν ενισχυμένα μέτρα ασφαλείας για ανηλίκους και συμμόρφωση με τις Οδηγίες προστασίας ανηλίκων της Ε.Ε. (Guidelines) και τον Κανονισμό για τις Ψηφιακές Υπηρεσίες (DSA).

Τι σημαίνουν αυτά στην πράξη

Αν και πολλές ψηφιακές πλατφόρμες έχουν υιοθετήσει πολιτικές και τεχνολογικά εργαλεία προστασίας, όπως μηχανισμούς ελέγχου ή εκτίμησης ηλικίας που βασίζονται σε τεχνητή νοημοσύνη και συμπεριφορικές μεθόδους, χωρίς πάντοτε πλήρη επαλήθευση με επίσημα έγγραφα, η αποτελεσματικότητά τους παραμένει αντικείμενο συζήτησης.

 Παράλληλα, προβλέπονται αυξημένες δικλίδες ασφαλείας για χρήστες κάτω των 18 ετών, με περιορισμούς περιεχομένου και δυνατότητες γονικής συναίνεσης, ενώ οι πλατφόρμες δέχονται εντεινόμενες ρυθμιστικές πιέσεις να συμμορφωθούν με το ευρωπαϊκό πλαίσιο. Ωστόσο, δεν λείπουν οι νομικές και κοινωνικές αντιπαραθέσεις για το κατά πόσο τα μέτρα αυτά προστατεύουν ουσιαστικά τους ανηλίκους ή απλώς μεταθέτουν το πρόβλημα.

 Σε κάθε περίπτωση, η Ευρώπη – και πέραν αυτής – εισέρχεται σε μια νέα φάση ενεργής κρατικής ρύθμισης των κοινωνικών δικτύων, με τη βασική πρόκληση για τις κυβερνήσεις να είναι η ισορροπία ανάμεσα στην προστασία των ανηλίκων, τον σεβασμό των ψηφιακών δικαιωμάτων και την επένδυση στην εκπαίδευση, τη διαφάνεια και την ευθύνη των ίδιων των πλατφορμών.