Σε λιγότερο από τρία χρόνια, τα chatbots τεχνητής νοημοσύνης απέκτησαν εκατοντάδες εκατομμύρια χρήστες παγκοσμίως και εντάχθηκαν δυναμικά όχι μόνο στην καθημερινότητα των ενηλίκων αλλά και των παιδιών. Σύμφωνα με την εταιρεία ψηφιακής ασφάλειας ESET, βρετανική έρευνα δείχνει ότι περίπου το 64% των παιδιών χρησιμοποιεί ήδη τέτοιου είδους εργαλεία.
Όπως εξηγεί ο Φιλ Μάνκαστερ της ESET, τα παιδιά αξιοποιούν τη γενετική τεχνητή νοημοσύνη (GenAI) με διαφορετικούς τρόπους. Για ορισμένα αποτελεί βοήθημα στις σχολικές εργασίες, ενώ για άλλα μετατρέπεται σε έναν σταθερό συνομιλητή, από τον οποίο ζητούν συμβουλές και στον οποίο αποδίδουν χαρακτηριστικά «ψηφιακού φίλου». Ωστόσο, αυτή η μορφή χρήσης συνοδεύεται από σημαντικούς κινδύνους που απαιτούν ιδιαίτερη προσοχή.
Επιπτώσεις στην ψυχοκοινωνική ανάπτυξη
Ένας από τους βασικότερους κινδύνους αφορά την ψυχολογική και κοινωνική ανάπτυξη των παιδιών. Σε μια περίοδο ζωής όπου διαμορφώνονται η ταυτότητα, η αυτοεκτίμηση και οι κοινωνικές δεξιότητες, η υπερβολική εξάρτηση από συστήματα τεχνητής νοημοσύνης μπορεί να λειτουργήσει ανασταλτικά.
Υπάρχει ο κίνδυνος τα παιδιά να αντικαταστήσουν τις πραγματικές κοινωνικές σχέσεις με την αλληλεπίδραση με chatbots.
Το γεγονός αυτό μπορεί να οδηγήσει σε κοινωνική απομόνωση και να περιορίσει την ικανότητά τους να επικοινωνούν, να επιλύουν συγκρούσεις και να δημιουργούν ουσιαστικούς δεσμούς.
Κίνδυνοι σε ευαίσθητα θέματα
Τα chatbots ενδέχεται επίσης να δώσουν προβληματικές απαντήσεις σε ευαίσθητα ζητήματα, όπως η ψυχική υγεία, οι διατροφικές διαταραχές ή ο αυτοτραυματισμός. Σε ορισμένες περιπτώσεις, οι απαντήσεις μπορεί άθελά τους να ενισχύσουν ή να κανονικοποιήσουν επικίνδυνες σκέψεις και συμπεριφορές αντί να αποθαρρύνουν το παιδί ή να το κατευθύνουν προς κατάλληλη επαγγελματική βοήθεια.
Υπερβολική χρήση και χρόνος οθόνης
Ένας ακόμη σημαντικός παράγοντας είναι ο χρόνος χρήσης. Η συχνή και παρατεταμένη αλληλεπίδραση με την τεχνητή νοημοσύνη μπορεί να οδηγήσει σε υπερβολική ενασχόληση, εις βάρος της σχολικής μελέτης, της οικογενειακής ζωής και άλλων δραστηριοτήτων που είναι απαραίτητες για μια ισορροπημένη ανάπτυξη.
Έκθεση σε ακατάλληλο περιεχόμενο
Παρά τους μηχανισμούς ασφαλείας που εφαρμόζουν οι πάροχοι για τον περιορισμό της πρόσβασης σε επικίνδυνο ή ακατάλληλο υλικό, τα φίλτρα δεν λειτουργούν πάντα αποτελεσματικά. Ως αποτέλεσμα, τα παιδιά μπορεί να εκτεθούν σε περιεχόμενο που δεν είναι κατάλληλο για την ηλικία τους.
Οι «παραισθήσεις» της τεχνητής νοημοσύνης
Ένα επιπλέον ζήτημα είναι οι λεγόμενες «παραισθήσεις» της τεχνητής νοημοσύνης, δηλαδή η παραγωγή ανακριβών ή εντελώς ψευδών πληροφοριών που παρουσιάζονται με πειστικό τρόπο. Ενώ οι ενήλικες ίσως μπορούν να αναγνωρίσουν την ανακρίβεια, τα παιδιά συχνά δυσκολεύονται να αξιολογήσουν την αξιοπιστία μιας απάντησης. Αυτό μπορεί να οδηγήσει στην υιοθέτηση λανθασμένων αντιλήψεων ή σε ακατάλληλες αποφάσεις, ιδιαίτερα σε θέματα υγείας, σώματος ή διαπροσωπικών σχέσεων.
Ζητήματα ιδιωτικότητας
Τα chatbots ενέχουν επίσης κινδύνους για την ιδιωτικότητα. Αν ένα παιδί μοιραστεί προσωπικές ή οικονομικές πληροφορίες σε μια συνομιλία, αυτές μπορεί να αποθηκευτούν από τον πάροχο της υπηρεσίας. Θεωρητικά, τέτοια δεδομένα θα μπορούσαν να γίνουν προσβάσιμα σε τρίτους συνεργάτες, να παραβιαστούν από κυβερνοεγκληματίες ή ακόμη και να εμφανιστούν σε απαντήσεις προς άλλους χρήστες.
Περιορισμοί των μέτρων προστασίας
Παρότι οι πλατφόρμες τεχνητής νοημοσύνης αναγνωρίζουν τους παραπάνω κινδύνους και εφαρμόζουν μέτρα προστασίας, αυτά δεν είναι απόλυτα αποτελεσματικά. Ανάλογα με τη χώρα και το chatbot που χρησιμοποιείται, οι μηχανισμοί ελέγχου ηλικίας και φιλτραρίσματος περιεχομένου μπορεί να παρουσιάζουν ασυνέπειες ή κενά.
Ανησυχητικά σημάδια
Υπάρχουν ορισμένα ενδεικτικά σημάδια που μπορεί να δείχνουν ότι ένα παιδί αναπτύσσει μια προβληματική ή μη ισορροπημένη σχέση με την τεχνητή νοημοσύνη:
• Αποσύρονται από τις εξωσχολικές δραστηριότητες και περνούν λιγότερο χρόνο με φίλους και οικογένεια
• Γίνονται ανήσυχοι όταν δεν μπορούν να έχουν πρόσβαση στο chatbot τους και ενδέχεται να προσπαθούν να κρύψουν σημάδια υπερβολικής χρήσης
• Μιλούν για το chatbot σαν να ήταν πραγματικό πρόσωπο
• Επαναλαμβάνουν ως «γεγονός» προφανώς λανθασμένες πληροφορίες
• Ρωτούν την τεχνητή νοημοσύνη για σοβαρά ζητήματα, όπως θέματα ψυχικής υγείας (κάτι που ανακαλύπτουν οι γονείς μέσω του ιστορικού συνομιλιών)
• Έχουν πρόσβαση σε περιεχόμενο για ενήλικες ή άλλο ακατάλληλο υλικό που παρέχεται από την τεχνητή νοημοσύνη.
Σε πολλές χώρες, τα chatbot τεχνητής νοημοσύνης περιορίζονται σε χρήστες άνω των 13 ετών. Ωστόσο, λόγω της ελλιπούς επιβολής των σχετικών κανονισμών, ίσως χρειαστεί να αναλάβουν δράση οι ίδιοι οι γονείς. Οι συζητήσεις είναι συχνά πιο σημαντικές από τους ελέγχους. Για καλύτερα αποτελέσματα, είναι σημαντικό να συνδυάζονται οι τεχνικοί περιορισμοί με εκπαίδευση και καθοδήγηση, υιοθετώντας έναν ανοιχτό και μη συγκρουσιακό τρόπο προσέγγισης.
• Με πληροφορίες από το ΑΠΕ-ΜΠΕ/Μ.Κ.





![Φωτογραφία με έξι άγνωστα μέχρι τώρα παράξενα αστρονομικά αντικείμενα που ανακαλύφθηκαν με τη βοήθεια του εργαλείου της ESA. [φωτ.: ESA/Hubble & NASA, D. O'Ryan, P. Gómez (European Space Agency), M. Zamani (ESA/Hubble)]](https://www.pontosnews.gr/wp-content/uploads/2026/01/agnosta_Astronomika_Antikeimena_diastima-360x180.jpg)










