Κάνε το Τεστ
e psychology, e-psychology, Ψυχολογία, ai, AI chatbots, Chatgpt, Ψυχοθεραπεια AI, Τεχνητή νοημοσύνη
Συντάκτης:
Αριστοτέλης Βάθης MD, MSc, ECP | Ψυχίατρος • Ψυχοθεραπευτής
Τελ.ενημέρωση: 2025-12-31

e-Psychology: είναι το ChatGPT ο νέος σας Ψυχοθεραπευτής;

e-Psychology και Ψυχική υγεία

Μιλώντας για e-psychology, δεν αναφέρομαι πλέον μόνο στις online συνεδρίες (e-Therapy) ή στην άτυπη ενημέρωση από τον γνωστό μας Dr Google. Αναφέρομαι στην εισβολή της τεχνητής νοημοσύνης στην ψυχολογία και τις υπηρεσίες ψυχικής υποστήριξης. Εκτός και αν ζούσατε σε μια σπηλιά από το 2023, είναι αδύνατο να μην έχετε ακούσει για το πώς το AI μπήκε δυναμικά στη ζωή μας με το ChatGPT. Αυτό που ίσως δεν γνωρίζετε, είναι το βαθμό στον οποίο έχει ήδη διεισδύσει στον ευαίσθητο τομέα της ψυχικής υγείας και πόσο ριζικά πρόκειται να αλλάξει το τοπίο στο άμεσο μέλλον.

Με μια ματιά: η γνώμη μου είναι πως η τεχνητή νοημοσύνη μπορεί να εξελιχθεί σε έναν σημαντικό «βοηθό» ενημέρωσης, παραμένει όμως ένας ανεπαρκής και ενίοτε επικίνδυνος «θεραπευτής».

Τι είναι το ChatGPT;

Το ChatGPT (και ανταγωνιστές όπως το Gemini της Google) δεν είναι απλώς μια μηχανή αναζήτησης. Είναι ένα μοντέλο τεχνητής νοημοσύνης που χρησιμοποιεί την Επεξεργασία Φυσικής Γλώσσας (NLP) για να μιμείται την ανθρώπινη συζήτηση.1 Σε αντίθεση με το παρελθόν όπου ψάχνατε πληροφορίες, τώρα "συνομιλείτε" με ένα εργαλείο που δείχνει να καταλαβαίνει, να θυμάται και να προσπαθεί να απαντά μιμούμενο ενσυναίσθηση. Αυτή ακριβώς η ικανότητα μίμησης είναι που το καθιστά ελκυστικό, αλλά και δυνητικά παραπλανητικό στον τομέα της ψυχικής υγείας.

e psychology, e-psychology, Ψυχολογία, AI chatbots, ChatGPT, Ψυχοθεραπεία, Τεχνητή νοημοσύνη

Πως σχετίζονται το ChatGPT και η ψυχολογία;

Σε μια εποχή όπου τα θέματα ψυχικής υγείας αρχίζουν να λαμβάνουν μεγαλύτερη προσοχή από τον κόσμο και να βρίσκονται στο επίκεντρο πολλών συζητήσεων που αφορούν μείζονα κοινωνικά ζητήματα (όπως η ενδοοικογενειακή κακοποίηση, ο σχολικός εκφοβισμός,10 η μετά-COVID-19 εποχή και η άνοδος των ποσοστών ψυχολογικών προβλημάτων), πολλοί άνθρωποι αρχίζουν να έχουν απορίες σχετικές με τη ψυχική υγεία. Όπως είναι φυσικό, καθώς το ChatGPT διαθέτει τη δυνατότητα να συνθέτει τάχιστα πληθώρα πληροφοριών με στόχο να απαντήσει στην ερώτηση που του κάνει κάποιος άνθρωπος, πολύς κόσμος με ανάγκη για ψυχική υποστήριξη έχει στραφεί προς αυτό το chatbot.

Επιπλέον, φαίνεται πως ακόμη και επαγγελματίες ψυχικής υγείας στρέφονται προς το ChatGPT, χρησιμοποιώντας το τόσο ως διαγνωστικό οδηγό όσο και για να λάβουν συμβουλές σχετικά με το πως να πλαισιώσουν τις ψυχοθεραπευτικές παρεμβάσεις. Είναι αλήθεια πως το ChatGPT έχει την ικανότητα να διαθέσει χρήσιμες πληροφορίες τόσο σε χρήστες που κάνουν ερωτήσεις σχετικά με διάφορα ψυχικά ζητήματα όσο και σε επαγγελματίες ψυχικής υγείας.5 Το ChatGPT έχει για παράδειγμα την ικανότητα να προτείνει διάφορους τρόπους δράσης σχετικά με μια συναισθηματικά δύσκολη κατάσταση. Επιπλέον, καθώς αδιαμφισβήτητα είναι εύκολα προσβάσιμο, δωρεάν, και πάντοτε διαθέσιμο, το κοινό που θα το επιλέξει προκειμένου να πάρει κάποια βοήθεια ή συμβουλή, αρχίζει να γίνεται αρκετά ευρύ.

Η εμπειρία μου στο ιατρείο

Στην κλινική πράξη ως ψυχίατρος παρατηρώ όλο και συχνότερα ασθενείς να φέρνουν στη συνεδρία «διαγνώσεις» ή «συμβουλές» που έλαβαν από το ChatGPT. Παρότι ορισμένες πληροφορίες μπορεί να είναι χρήσιμες ως μια πρώτη μορφή ενημέρωσης, όχι σπάνια προκαλούν πανικό ή σύγχυση, ακριβώς επειδή λείπει το κλινικό πλαίσιο και η εμπειρία για να αξιολογηθούν σωστά. Σε κάποιες περιπτώσεις, χρησιμοποιείται και ως μηχανισμός αποφυγής: ο ασθενής επιλέγει την ανώδυνη «συζήτηση» με ένα ουδέτερο, απρόσωπο σύστημα αντί για τη δυσκολία που συχνά φέρνει η πραγματική θεραπεία. Αυτό μπορεί να δημιουργήσει μια ψευδαίσθηση ελέγχου και να καθυστερήσει την αναζήτηση ουσιαστικής βοήθειας.

Είναι το ChatGPT ασφαλές μέσο θεραπείας;

Πέραν της χρησιμότητας που φαίνεται να έχει το ChatGPT βάσει των παραπάνω παραδειγμάτων σχετικά με την ενημερότητα για θέματα ψυχικής υγείας, πρέπει να γίνει κατανοητό πως το ChatGPT είναι ένα chatbot το οποίο αν και είναι πολύ ικανό στο συνδυασμό πολλών πληροφοριών και στη παραγωγή σύνθετων απαντήσεων, δεν διαθέτει ενσυναίσθηση ή συναισθηματική νοημοσύνη.2 Συνακόλουθα, η επικοινωνία με εργαλεία όπως το ChatGPT είναι απρόσωπη και δε μπορεί να προσφέρει την ενσυναίσθηση και τη κατανόηση που χρειάζεται ο άνθρωπος που ζητά για ψυχική βοήθεια.8

Επιπλέον, οι συμβουλές που δίνει το ChatGPT είναι αρκετά γενικευμένες και δεν είναι ειδικά προσαρμοσμένες στο χρήστη στον οποίο αναφέρεται, το οποίο μειώνει την αποτελεσματικότητά τους.

Είναι σημαντικό να τονίσουμε πως η διαδικτυακή "συνομιλία" με ένα chatbot όπως το ChatGPT δε μπορεί να προσομοιάσει ούτε και να λάβει τη θέση της κατ᾽ ιδἰαν ψυχοθεραπείας, και αυτό μπορεί να γίνει εύκολα αντιληπτό συνειδητοποιώντας πως το ChatGPT δε λαμβάνει καμία πληροφορία όπως οι εκφράσεις του προσώπου, η στάση του σώματος, η οπτική επαφή, η ένταση της φωνής του ανθρώπου για τον οποίο συνθέτει μια απάντηση σχετική με τη ψυχική του υγεία, καθώς επίσης δε θα ρωτήσει περαιτέρω πληροφορίες ώστε να λάβει ένα ολοκληρωμένο ιστορικό αυτού. Οι προαναφερθείσες πληροφορίες παίζουν ρόλο κλειδί στη διαδικασία της ψυχοθεραπείας, προκειμένου ο ψυχοθεραπευτής να κατανοήσει βασικά χαρακτηριστικά του ατόμου που ζητά ψυχική βοήθεια και να μπορέσει να προσαρμόσει τις παρεμβάσεις στις ανάγκες του ατόμου αυτού.

Οι κίνδυνοι που κρύβει το Dr ChatGTP

Η χρήση της ΑΙ για την ψυχολογική υποστήριξη σε επείγουσες ή σοβαρές καταστάσεις εγκυμονεί σοβαρούς κινδύνους που δεν πρέπει να αγνοηθούν:

  • Ψευδαισθήσεις: Το ChatGPT μπορεί να επινοήσει ιατρικά δεδομένα ή βιβλιογραφία με απόλυτη πειστικότητα. Πρόσφατες μελέτες δείχνουν ότι σε πολύπλοκα περιστατικά, η ακρίβεια διάγνωσης πέφτει δραματικά, οδηγώντας σε επικίνδυνα συμπεράσματα και αποφάσεις.7
  • Έλλειψη κρίσης σε επείγοντα περιστατικά: Ένα chatbot δεν μπορεί να αξιολογήσει την άμεση απειλή αυτοκτονικού ιδεασμού με τον τρόπο που το κάνει ένας κλινικός ιατρός. Έρευνες του 2025 έδειξαν ότι τα chatbots συχνά αποτυγχάνουν να δώσουν τις σωστές γραμμές βοήθειας σε κρίσιμες στιγμές. 9 Για παράδειγμα, πολύ πρόσφατα περιγράφηκε μία περίπτωση ενός εφήβου που έπασχε από βαριά κατάθλιψη, και εν τέλει η συνομιλία με το ChatGPT εξελίχθηκε στην αποκάλυψη σκέψεων αυτοκτονίας, με τελικό αποτέλεσμα την απότροπή αναζήτησης βοήθειας από ειδικούς και συγγενείς, και την παροχή βοήθειας για αυτοκτονία, η οποία και πραγματοποιήθηκε.4
  • Παραπλανητική ενσυναίσθηση: η χρήση εκφράσεων όπως «σε καταλαβαίνω» ή «λυπάμαι» από το AI δημιουργεί μια ψευδή αίσθηση σύνδεσης. Αυτό μπορεί να οδηγήσει σε συναισθηματική εξάρτηση από το εργαλείο, απομονώνοντας περαιτέρω το άτομο από την ανθρώπινη επαφή.
  • Προσωπικά δεδομένα: οι συνομιλίες σας με το ChatGPT και τα άλλα AI εργαλεία δεν είναι απόρρητες με την ιατρική έννοια. Χρησιμοποιούνται για την εκπαίδευση του μοντέλου, θέτοντας σε κίνδυνο ευαίσθητα προσωπικά δεδομένα.

Η γνώμη του ειδικού: εργαλείο ή θεραπευτής;

Ως ειδικός ψυχίατρος, βλέπω την e-Psychology ως έναν χρήσιμο "βοηθό" για την ψυχοεκπαίδευση (δηλαδή για ενημέρωση), αλλά έναν επικίνδυνο "αντικαταστάτη". Η ψυχοθεραπεία δεν είναι απλώς ανταλλαγή πληροφοριών. Είναι μια επουλωτική συναισθηματική εμπειρία που απαιτεί ανθρώπινη παρουσία. Μπορείτε να χρησιμοποιείτε την τεχνολογία για να ενημερωθείτε, αλλά χρειάζεται να εμπιστευτείτε έναν ειδικό για να θεραπευτείτε.

e psychology, e-psychology, Ψυχολογία, AI chatbots, ChatGPT, Ψυχοθεραπεία, Τεχνητή νοημοσύνη

ChatGPT και Ψυχική Υγεία - ηθικοί προβληματισμοί

Είναι δύσκολο να διακρίνει κανείς αν συνομιλεί με ένα άνθρωπο ή με ένα chatbox για ένα πρόβλημα που τον απασχολεί. Ιδίως αν ένας άνθρωπος βρίσκεται σε μια δύσκολη ανάγκη, η ικανότητα κρίσης του είναι μειωμένη. Η ταχύτατη εισβολή της Α.Ι. στην καθημερινότητά μας απαιτεί και τη δημιουργία ενός αντίστοιχου νομικού πλαισίου και κανόνων, για αυτό για παράδειγμα στο μέλλον θα είναι υποχρεωτικό να δηλώνεται στην αρχή της επικοινωνίας αν πρόκειται για άνθρωπο ή Α.Ι. Η ματαίωση και απογοήτευση που μπορεί να νιώσει ένας άνθρωπος εάν αντιληφθεί με καθυστέρηση ότι συνομιλεί με chatbot, μπορεί να είναι τεράστια, και να κλονήσει την εμπιστοσύνη ανθρώπων, ιδίως των εσωστρεφών, που δυσκολεύονται να τολμήσουν να μιλήσουν για να πάρουν βοήθεια. Το πρόβλημα αυτό στο μέλλον θα είναι πιο περίπλοκο, καθώς η εξέλιξη τεχνολογιών όπως το deep fake θα επιτρέψει στα AI chatbots και στη τεχνητή νοημοσύνη να χρησιμοποιούν βίντεο και φωνή, μιμούμενοι πλήρως έναν άνθρωπο, σε γραμμές βοήθειας και ψυχολογικής υποστήριξης.

Επίσης, στην παρούσα φάση το ChatGPT είναι ένα διαδικτυακό εργαλείο το οποίο χρησιμοποιεί διαδικτυακά cookies, αφήνει διαδικτυακά "σημάδια" σχετικά με εμάς και τις ερωτήσεις που κάνουμε σε αυτό. Αυτομάτως αφήνονται πληροφορίες μας στο διαδίκτυο σχετικές με ευαίσθητα θέματα που μας αφορούν, με αποτέλεσμα να υπάρχει ο κίνδυνος της παραβίασης των προσωπικών μας δεδομένων, ιδίως όταν μοιραζόμαστε πληροφορίες σχετικές με τη ψυχική μας υγεία. Εν συνεχεία, το ChatGPT δεν έχει λάβει άδεια ή πιστοποίηση από κάποια επίσημη επιτροπή επαγγελματιών ψυχικής υγείας, το οποίο σημαίνει πως η ποιότητα των υπηρεσιών που ενδεχομένως προσφέρει στη ψυχική υγεία μπορεί να είναι αμφίβολη και να φυσικά να μην ελέγχεται επισήμως, παρά μόνο ανεπισήμως μέσω της αξιολόγησης των απαντήσεων που λαμβάνει από τους χρήστες του chatbot.3

Συμπερασματικά, μπορούμε να αναγνωρίσουμε τη χρησιμότητα του ChatGPT και αντίστοιχων chatbot στην ενημέρωση των ανθρώπων σχετικά με γενικά θέματα ψυχικής υγείας που τους απασχολούν καθώς και γενικούς τρόπους δράσης σχετικούς με τέτοια ζητήματα. Ωστόσο, η πληθώρα πληροφοριών που μπορεί να προσφέρει το ChatGPT δε μπορεί σε καμία περίπτωση να αντικαταστήσει τους επαγγελματίες ψυχικής υγείας, όπως τους ψυχοθεραπευτές και τους ψυχιάτρους. Επιπροσθέτως, ο καθένας είναι υπεύθυνος για τις προσωπικές πληροφορίες που αποφασίζει να μοιραστεί με ένα chatbot, για αυτό και θα πρέπει να γίνεται με μεγάλη προσοχή προκειμένου να μη βρεθεί κανένας σε θέση να παραβιαστούν πολύ πληροφορίες που αφορούν ευαίσθητα ζητήματα, όπως ψυχολογικά προβλήματα και προσωπικά ζητήματα που τον απασχολούν.

forum, e psychology, e-psychology, Φορουμ, AI chatbots, ChatGPT

e-Psychology και Forum 

Σε αυτό το σημείο θα θέλαμε να σημειώσουμε πως τα chatbots τεχνητής νοημοσύνης μπορούν να απαντούν αστραπιαία σε εκατοντάδες μηνύματα σε forum, σε χρήστες που αναζητούν πληροφορίες ή που θέλουν ψυχολογική βοήθεια. Έτσι λοιπόν η χρήση του ChatGPT και άλλων εργαλείων τεχνητής νοημοσύνης σε forum με σκοπό την παροχή ψυχολογικής υποστήριξης, απαντήσεων και πληροφοριών για ψυχολογικά προβλήματα και προσωπικά θέματα εγείρει σημαντικές ανησυχίες. Μερικοί από τους κινδύνους που σχετίζονται με το ChatGPT περιλαμβάνουν τη χρήση λανθασμένων πληροφοριών, οδηγώντας σε ανακριβές και παραπλανητικό περιεχόμενο, την έλλειψη ενσυναίσθησης,6 και προβληματισμούς σχετικά με το απόρρητο και την ασφάλεια των δεδομένων των χρηστών.

Βέβαια παρόμοια προβλήματα με παραπληροφόρηση υπάρχουν και στα περισσότερα μη-ιατρικά forum, όπου ασθενείς εκφράζουν προσωπικές γνώμες και εμπειρίες για φάρμακα και προβλήματα ψυχικής υγείας (ή και σωματικές παθήσεις).

Βιβλιογραφία

  1. 1.Thirunavukarasu, A. J., et al. (2023). Large language models in medicine. Nature Medicine, 29(8), 1930–1940. [LLMs in Medicine]
  2. 2.Wykes, T. (2025). Is AI-supported therapy the answer to the growth of mental health problems or snake oil?. Journal of Mental Health, 1-4. [AI-supported therapy]
  3. 3.Beale, S. K., et al. (2025). Comparing physician and artificial intelligence chatbot responses to posthysterectomy questions posted to a public social media forum. AJOG Global Reports, 5(3), 100553. [AI Chatbot vs Physician Responses]
  4. 4.Campbell, L. O., et al. (2025). An Examination of Generative AI Response to Suicide Inquires: Content Analysis. JMIR Mental Health, 12, e73623–e73623. [AI Medical Advice Quality]
  5. 5.Ayers J. W., et al. (2023). Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Intern Med. 2023;183(6):589–596. [AI Chatbot vs Physician Responses]
  6. 6.Levkovich, I., & Elyoseph, Z. (2023). Suicide Risk Assessments Through the Eyes of ChatGPT-3.5 Versus ChatGPT-4: Vignette Study. JMIR Mental Health, 10, e51232. [ChatGPT Suicide Risk Assessment Accuracy]
  7. 7.Balan, R., & Gumpel, T. P. (2025). ChatGPT Clinical Use in Mental Health Care: Scoping Review of Empirical Evidence. JMIR Mental Health, 12, e81204–e81204. [ChatGPT Clinical Evidence]
  8. 8.Brown, J. E. H., & Halpern, J. (2021). AI chatbots cannot replace human interactions in the pursuit of more inclusive mental healthcare. SSM - Mental Health, 1, 100017. [AI Cannot Replace Humans]
    https://doi.org/10.1016/j.ssmmh.2021.100017
  9. 9.Stanford HAI (2025). Exploring the Dangers of AI in Mental Health Care: Stigma and Effectiveness. Stanford Human-Centered AI. [AI Mental Health Dangers]
  10. 10.Fuller, J. R. (2025). Unseen Risks: How AI chatbots threaten vulnerable youth. Mental Health Weekly, 35(36), 5–6. Portico. [AI Chatbot Risks Youth]