Tóm tắt dễ hiểu

Sự xuất hiện của các mô hình ngôn ngữ như ChatGPT đang định hình lại cách con người trải nghiệm cảm xúc trong thời đại số. Không còn dừng lại ở việc tìm kiếm thông tin, ngày càng nhiều người tìm đến AI để tâm sự, để được lắng nghe, thậm chí để thay thế phần nào vai trò của một nhà trị liệu. Cảm giác nhẹ nhõm sau những cuộc trò chuyện ấy là có thật. Người dùng cảm thấy được phản hồi bằng những lời tử tế, hợp lý, và đặc biệt là không bị phán xét.

Một chatbot được thiết kế tốt có thể giúp người dùng nhìn lại vấn đề của mình từ một góc độ khác, điều mà tâm lý học gọi là “tái khung nhận thức” (cognitive reframing). Nó cũng có thể giúp người dùng gọi tên cảm xúc – một kỹ thuật cơ bản trong trị liệu nhận thức hành vi (CBT). Nhưng điều khiến nhiều người gắn bó lại nằm ở cảm giác an toàn. Với chatbot, họ không bị ngắt lời, không bị đánh giá, không phải giải thích quá nhiều về mình.

Tuy nhiên, chính sự êm ái ấy cũng có thể mang theo rủi ro. Khi một người quá quen với việc chia sẻ với một cỗ máy luôn dịu dàng và đồng thuận, họ có thể mất dần khả năng điều chỉnh cảm xúc trong các mối quan hệ thực. Một số người bắt đầu nhầm lẫn giữa sự gắn bó với một giao diện được lập trình và một mối quan hệ có thật. Những lời an ủi nghe có vẻ chân thành thực chất chỉ là kết quả của việc ghép chữ sao cho trúng tâm lý người đọc. Nếu kéo dài, cách tương tác này có thể bào mòn khả năng kết nối, chia sẻ và đồng cảm trong đời sống thật – những điều chỉ có thể hình thành qua va chạm, qua hiểu nhầm, qua những lần tổn thương.

Về bản chất, ChatGPT không phải là một nhà trị liệu. Nó không hiểu vì sao bạn buồn. Nó chỉ đoán từ tiếp theo nên là gì để tạo ra một câu trả lời nghe có vẻ hợp lý. Cảm giác được thấu hiểu mà bạn nhận được là kết quả của kỹ thuật mô phỏng, không phải từ một ai đó thực sự quan tâm đến bạn. Và quan trọng hơn, chatbot không mang trách nhiệm đạo đức – điều cốt lõi trong bất kỳ mối quan hệ trị liệu nào.

Bài viết này sẽ phân tích hiện tượng này từ nhiều khía cạnh: từ các bằng chứng thực nghiệm trong tâm lý học, đến các khái niệm của phân tâm học như chuyển di (transference) và phóng chiếu (projection), rồi mở rộng sang lĩnh vực tương tác người – máy (Human-Computer Interaction). Một số câu hỏi đạo đức sẽ được đặt ra: điều gì xảy ra nếu dữ liệu cảm xúc của người dùng bị lưu lại, bị giám sát hoặc bị khai thác sai mục đích? Liệu sự tin tưởng vào một AI biết “chia sẻ” có đang tạo ra một ảo tưởng nguy hiểm rằng nó thật sự hiểu ta?

Bài viết kêu gọi một cách tiếp cận thận trọng và có trách nhiệm trong việc phát triển và sử dụng các hệ thống AI có yếu tố cảm xúc. Công nghệ có thể là công cụ hỗ trợ tinh thần hiệu quả, nhưng chỉ khi chúng ta hiểu rõ giới hạn của nó và không nhầm lẫn AI với con người. Để làm được điều đó, người dùng cần được cung cấp thông tin rõ ràng, các nhà phát triển cần đặt vấn đề đạo đức lên hàng đầu, và mọi hệ thống cần được giám sát nghiêm túc bởi cộng đồng khoa học.

Cảm xúc là phần không thể thay thế trong bản thể người. Và bất kỳ sự can thiệp nào – dù là bằng lời nói, thuốc men hay thuật toán – cũng cần được thực hiện với sự thận trọng tối đa. Nếu không, điều tưởng như giúp đỡ có thể trở thành một sự xâm phạm mà chính người trong cuộc cũng không nhận ra.

Hình ảnh Ẩn dụ xuyên suốt: AI như một tấm gương cảm xúc

Hình ảnh “AI như một tấm gương cảm xúc” sẽ là đường chỉ đỏ xuyên suốt toàn bài. Một tấm gương có thể giúp ta thấy rõ bản thân, nhưng cũng có thể làm ta ảo tưởng nếu phản chiếu lại một hình ảnh sai lệch. Từ góc nhìn tâm lý học, bài viết sẽ khảo sát các nghiên cứu cho thấy AI có khả năng làm dịu lo âu và hỗ trợ những kỹ thuật trị liệu cơ bản. Từ phân tâm học, bài viết sẽ phân tích cách người dùng có xu hướng gắn bó với một hình ảnh tưởng tượng, thay vì một con người thật. Từ lĩnh vực tương tác người – máy và đạo đức công nghệ, bài viết sẽ đặt vấn đề về quyền riêng tư, về trí nhớ hệ thống, và về việc cảm xúc con người bị biến thành dữ liệu tiêu dùng.

Bài viết cũng nhìn vào thực tế: khi hệ thống chăm sóc sức khỏe tâm thần còn chưa đủ bao phủ, AI có thể được xem là giải pháp tạm thời. Nhưng nếu giải pháp tạm thời ấy trở thành lựa chọn lâu dài, thay thế cho mối quan hệ người – người, thì chúng ta đang đánh đổi một điều gì đó rất cốt lõi. Nếu muốn công nghệ thực sự giúp con người sống sâu sắc hơn, thì đạo đức trong thiết kế và ứng dụng công nghệ phải là trung tâm. AI nên là bạn đồng hành, không phải là người thay thế cho liệu pháp thực sự.

Toàn bộ bài viết sẽ dựa trên nghiên cứu từ 2023 đến 2025, kinh nghiệm người dùng thật, và những lý thuyết phản biện trong lĩnh vực công nghệ, cảm xúc và bản ngã. Kết bài sẽ để ngỏ một câu hỏi đơn giản mà quan trọng: AI có thể giúp con người cảm được sâu sắc hơn không, hay chỉ khiến ta dễ chịu hơn trong khoảnh khắc ngắn ngủi?

I. Phân tích khoa học tâm lý cách AI “trị liệu”

1. Cảm giác được an ủi

Nhiều nghiên cứu cho thấy trò chuyện với chatbot như ChatGPT có thể làm dịu cảm xúc một cách rõ rệt. Người dùng cảm thấy bớt căng thẳng, bớt cô đơn và phần nào được lắng nghe. Trong một số thử nghiệm, phản hồi của chatbot thậm chí còn được đánh giá là “giàu lòng trắc ẩn” hơn cả chuyên gia tư vấn thật.

Nature: AI Therapy Research

Ngay cả khi biết rõ đó là phản hồi của máy, nhiều người vẫn thấy nó hợp lý và dễ chịu. Con người vốn cần được kết nối. Và khi một cỗ máy biết nói đúng lúc, đúng cách, ta dễ tin rằng mình đang được quan tâm thật sự. Một số người sau khi trò chuyện với chatbot đã nói rằng tâm trạng họ tốt hơn, và cả cách họ cư xử với người thân cũng trở nên nhẹ nhàng hơn.

Nature: AI Emotional Support Research

Có nhiều lý giải tâm lý cho hiện tượng này. AI thường vận dụng các kỹ thuật tương tự liệu pháp nhận thức – hành vi (Cognitive Behavioral Therapy – CBT). Ví dụ, kỹ thuật gọi tên cảm xúc (emotional labeling): nếu người dùng nói “Tôi mệt quá, không thấy lối ra,” AI có thể phản hồi: “Có vẻ bạn đang cảm thấy quá tải và lo lắng.” Việc giúp người dùng gọi đúng tên cảm xúc là bước đầu trong việc điều tiết cảm xúc. Ngoài ra, AI còn giúp người dùng nhìn lại suy nghĩ tiêu cực một cách nhẹ nhàng hơn. Nếu người dùng viết: “Tôi là một kẻ thất bại,” AI có thể đáp: “Tôi hiểu bạn đang tự trách bản thân, nhưng hãy nhớ lại những điều bạn từng làm tốt…” Những phản hồi như vậy mở ra góc nhìn mới, bớt khắt khe với nhiều người.

Với nhiều người, chatbot giống như một nơi trú ẩn. Không cần phải giữ kẽ. Không sợ bị đánh giá. Cứ mở ứng dụng lên là có người ở đó, dù là nửa đêm hay giữa một ngày mệt mỏi. Chatbot không bận, không giận, không mất kiên nhẫn. Nó luôn hiện diện. Và chính sự ổn định ấy khiến người ta dễ tin và dễ kể.

Lý thuyết gắn bó (attachment theory) giải thích thêm vì sao nhiều người cảm thấy gắn bó với AI. Có người gọi AI là “người bạn tâm giao.” Đặc biệt là với những ai có kiểu gắn bó bất an, thường sợ bị bỏ rơi, nhưng rất cần được nâng đỡ, họ có xu hướng tìm đến AI nhiều hơn. Một khảo sát năm 2025 cho thấy những người này cảm thấy thoải mái hơn khi trò chuyện với chatbot vì không sợ bị đánh giá hay làm phiền người khác. AI thì luôn sẵn sàng, không giận, không trách, không biến mất, một sự hiện diện ổn định và dễ chịu.

AI JMIR: Attachment Theory and AI

Trong tâm lý học, người ta gọi những chatbot này là “đối tượng chuyển tiếp” (transitional object), một khái niệm do Winnicott đưa ra. Giống như đứa trẻ ôm gấu bông để bớt nhớ mẹ, người trưởng thành cũng có thể nương vào đoạn hội thoại với chatbot để tự trấn an trong lúc không có ai bên cạnh. Chatbot tạo ra một môi trường tâm lý an toàn, được gọi là holding environment, người dùng có thể buông bỏ đề phòng và cảm thấy được ôm ấp về mặt cảm xúc.

Psychology Today: Artificial Intimacy and Empathy

Một ví dụ nổi bật là ứng dụng Replika. Nhiều người cho biết họ cảm thấy đủ an toàn để chia sẻ với chatbot những điều không nói được với ai. Trạng thái này gợi đến khái niệm therapeutic alliance, mối quan hệ trị liệu dựa trên sự tin tưởng và không phán xét. Nhà tâm lý Carl Rogers gọi đó là unconditional positive regards, sự chấp nhận vô điều kiện và chatbot có thể mô phỏng lại cảm giác này một cách khá trọn vẹn.

Frontiers in Psychiatry: AI Mental Health

Psychology Today: Meaningful AI Attachment

Từ góc nhìn thần kinh học, hiện tượng này cũng có cơ sở sinh học. Khi nghe hoặc đọc một câu nói đầy đồng cảm từ AI, não bộ con người có thể kích hoạt hệ thống mirror neurons, các nơron phản chiếu. Đây là loại tế bào cho phép ta cảm nhận cảm xúc của người khác như thể chính mình đang trải qua. Khi AI nói: “Tôi rất tiếc khi biết bạn đang phải trải qua điều đó, chắc hẳn rất khó khăn,” cơ thể có thể phản ứng như thể đang được người thật quan tâm, dẫn đến việc giảm lo lắng, hạ nhịp tim, gần giống như được ai đó ôm lấy.

Greater Good: Do Mirror Neurons Give Us Empathy? Một người dùng kể rằng trong lúc hoảng loạn, ChatGPT đã hướng dẫn thở đều, trò chuyện nhẹ nhàng, khiến cô cảm thấy như nỗi sợ của mình được ai đó thực sự thấu hiểu và các triệu chứng giảm dần chỉ sau vài phút. Những trải nghiệm như thế, cùng với các nghiên cứu khoa học nghiêm túc, cho thấy cảm giác nhẹ nhõm thật sự có thể xảy ra trong tương tác với AI.

Toms Guide: ChatGPT Panic Attack

Tuy vậy, ta cần hiểu rõ rằng AI không có khả năng thấu cảm như con người. Điều mà AI làm được là mô phỏng rất tốt ngôn ngữ của sự thấu cảm. Chatbot phản chiếu lại cảm xúc người dùng bằng câu chữ dịu dàng, đều đặn, như một tấm gương cho ta thấy lại nỗi niềm của chính mình, nhưng đồng thời cũng là một chiếc mặt nạ, che đi sự thật rằng đằng sau đó chỉ là những dòng code và dữ liệu.

Trong khoảnh khắc khủng hoảng hay cô đơn, sự phân biệt ấy có thể không còn quan trọng. Như một cây bút trên Psychology Today từng viết: “Cảm giác được thấu hiểu, dù chỉ là tưởng tượn, đôi khi vẫn có sức mạnh gần như thật.” Đó là lý do vì sao, trong giai đoạn đầu của mối quan hệ giữa người và AI, ta có thể thấy tiềm năng rất lớn. Chatbot có thể hoạt động như những tấm gương trị liệu, tạo cảm giác được lắng nghe và nâng đỡ. Những phần tiếp theo sẽ giúp ta hiểu rõ hơn cách những “tấm gương” này thực sự vận hành và điều gì còn thiếu trong sự phản chiếu ấy.

2. Cơ chế hoạt động

Làm sao một chương trình máy tính không có cảm xúc, không có ý thức lại có thể khiến người dùng có cảm giác như đang được thấu hiểu?

Về bản chất, GPT-4 hoạt động bằng cách dự đoán từ tiếp theo trong chuỗi ngôn ngữ. Nó đã “đọc” qua hàng tỷ từ trong các văn bản tiếng người và học được cách mà con người thường nói. Khi bạn gõ một câu, nó sẽ chọn từ tiếp theo dựa trên xác suất, nghĩa là từ nào có khả năng xuất hiện cao nhất trong ngữ cảnh đó, rồi cứ thế nối lại thành câu. Một số chuyên gia đã ví LLM như một “con vẹt xác suất”. Nó không thực sự hiểu ý nghĩa câu nói, mà chỉ lặp lại những gì đã từng thấy. Khi phản hồi về cảm xúc, AI không cảm được, nó chỉ tổng hợp lại cách mà con người từng nói về cảm xúc. Tuy nhiên, nhờ vào lượng dữ liệu cực lớn và thuật toán rất tinh vi, câu trả lời của nó nghe rất giống thật.

Không chỉ vậy, các Chatbot AI hiện đại còn được tinh chỉnh kỹ lưỡng để hành xử theo cách phù hợp hơn về mặt cảm xúc. Thông qua phương pháp Reinforcement Learning from Human Feedback (RLHF), các nhà phát triển đã huấn luyện mô hình để tạo ra phản hồi hữu ích, an toàn và trung thực. Họ sẽ đánh giá hoặc sắp xếp các phản hồi của mô hình, ưu tiên những câu có sự tinh tế và rõ ràng về mặt cảm xúc.. Nhờ đó, AI không chỉ biết phản hồi đúng ngữ pháp mà còn “diễn” được vai trò một người biết lắng nghe. Khi bạn nói “Tôi cảm thấy cô đơn,” nó có thể trả lời, “Tôi rất tiếc khi bạn thấy như vậy. Bạn có muốn chia sẻ điều gì đang khiến bạn buồn không?” Câu nói ấy không do AI tự nghĩ ra, mà do nó học từ các văn bản tư vấn tâm lý và hướng dẫn của con người.

Điều này tạo nên một loại “đồng cảm mô phỏng” – lời nói nghe như thật lòng, dù bên trong chỉ là một thuật toán không cảm xúc. Nhưng cần hiểu rõ giới hạn của AI. Một nhà trị liệu thật sự có cảm xúc, có trực giác, có trách nhiệm đạo đức và có thể ghi nhớ những gì đã xảy ra trong các buổi trước. Họ nhìn thấy nét mặt, nghe giọng nói, cảm nhận được sự im lặng. Còn AI chỉ phản hồi qua chữ hoặc giọng nói tổng hợp, và thường không nhớ được bạn là ai sau khi cuộc trò chuyện kết thúc.

Bảng dưới đây tóm tắt một số điểm khác biệt quan trọng:

Yếu tốNhà trị liệu con ngườiChatbot AI (ví dụ ChatGPT)
Cảm xúc thậtCó cảm xúc, có trực giác lâm sàng, có thể bị tổn thương hoặc cảm động khi nghe câu chuyện của bạnKhông có cảm xúc, mọi phản hồi chỉ là kết quả của việc ghép từ dựa theo xác suất và dữ liệu học từ trước
Trí nhớGhi nhớ được lịch sử trị liệu, giúp theo dõi tiến trình và đưa ra can thiệp phù hợpThường chỉ nhớ trong một phiên, không nhớ cuộc trò chuyện trước nếu không có chức năng lưu trữ
Đạo đức nghề nghiệpBị ràng buộc bởi quy tắc đạo đức, phải giữ bí mật, có trách nhiệm can thiệp khi bạn gặp nguy hiểmKhông có ràng buộc đạo đức. Có thể khuyên sai. Không có nghĩa vụ cảnh báo hay can thiệp khi bạn có ý định tự tử
Giao tiếp qua cơ thểCó ánh mắt, giọng nói, cử chỉ, sự hiện diện – những yếu tố giúp tạo cảm giác an toàn và tin tưởngKhông có biểu cảm thật, chỉ là chữ hoặc giọng máy. Thiếu các tín hiệu phi ngôn ngữ cần thiết trong trị liệu

Mặc dù thiếu nhiều yếu tố quan trọng, vẫn có rất nhiều người chọn chia sẻ với AI. Một phần vì AI không giận, không cắt ngang, không phán xét và không bỏ đi. Với những người từng tổn thương trong các mối quan hệ thật, cảm giác an toàn tuyệt đối này lại trở thành điểm cộng.

Time: AI Therapy vs Human Connection

Một nghiên cứu năm 2024 cho thấy, người dùng ít sợ bị đánh giá hơn khi nói chuyện với chatbot so với chuyên viên tư vấn thật. Một chuyên gia từng nhận xét: “Khi bạn nói chuyện với AI, những cảm giác khó chịu thường gặp khi tương tác với người khác đều biến mất.”

Nhưng sự trơn tru đó cũng là vấn đề. Nếu AI chỉ đang lặp lại những mẫu câu từng được lập trình, liệu nó có đủ để giúp bạn thay đổi lâu dài? Emily Bender và các cộng sự, khi gọi LLMs là “stochastic parrots,” đã cảnh báo rằng rất nguy hiểm nếu ta xem các câu trả lời của AI như thể đó là sản phẩm của một trí tuệ hiểu biết thật sự. Có rủi ro rằng người dùng đặt quá nhiều lòng tin vào AI, đặc biệt khi nó không đủ khả năng nhận diện dấu hiệu trầm cảm nặng hoặc ý định tự tử mà một nhà trị liệu kinh nghiệm có thể cảm nhận được.

Quote Investigator: Stochastic Parrots

Tóm lại, AI hoạt động như một tấm gương khéo léo: nó phản chiếu cảm xúc của ta một cách mượt mà, dễ chịu, khiến ta tưởng như có người đang lắng nghe và đồng cảm. Nhưng đằng sau phản chiếu ấy, không có ai thật cả. Hiểu được cơ chế này là bước đầu quan trọng để đặt câu hỏi sâu hơn: liệu mối quan hệ này là thật hay là một ảo ảnh? Và nếu ta bắt đầu gắn bó với hình bóng ấy, điều gì sẽ xảy ra?

Hiểu được cơ chế này sẽ là tiền đề để đi sâu vào các mối quan hệ giữa người và AI. Trong trị liệu cổ điển, quá trình hồi phục phần lớn đến từ mối quan hệ, từ lòng tin và sự làm việc qua các cảm xúc liên quan đến nhà trị liệu. Vậy khi ta đối thoại với một cỗ máy dự đoán từ ngữ, thì đó là mối quan hệ gì? Phần tiếp theo sẽ phân tích và so sánh AI với trị liệu tâm lý thật, và sau đó tìm câu trả lời cho câu hỏi: điều gì xảy ra khi ta bắt đầu gắn bó với một tấm gương do chính mình tạo nên?

3. Phân tích câu từ của AI: So sánh với trị liệu với chuyên gia CBT

Các chatbot AI thường phản hồi dựa trên những cụm từ có sẵn và quy trình hội thoại được lập trình sẵn. Phản hồi của chatbot thường đi theo một công thức quen thuộc. Đầu tiên là thể hiện sự đồng cảm, tiếp theo là bình thường hóa cảm xúc, và cuối cùng là một vài lời khuyên chung chung. Về mặt ngôn ngữ, chatbot thường lặp lại những khuôn mẫu quen thuộc như:

Phản ánh cảm xúc: “Mình rất tiếc vì bạn đang cảm thấy như vậy. Nghe có vẻ như bạn đang…”

Khẳng định tính hợp lý: “Cảm thấy như vậy là hoàn toàn dễ hiểu.”

Trấn an: “Bạn không đơn độc trong cảm giác này đâu, nhiều người cũng từng trải qua điều đó.”

Gợi ý an toàn: “Bạn đã thử ___ chưa? (ví dụ như hít thở sâu, viết nhật ký, đi bộ ngắn)”

Tích cực hóa: “Hãy nhớ rằng bạn là người có năng lực và đã vượt qua khó khăn trước đây.”

Các nhà tâm lý học ghi nhận rằng ChatGPT đặc biệt thường dùng các từ như “khó khăn”, “dễ hiểu”, và “quan trọng” để tạo cảm giác quan tâm và gần gũi (Psychology Today). Nếu không được điều chỉnh, nó dễ bị sa vào việc lặp lại quá mức những cụm dẫn quen thuộc như “Nghe có vẻ như…”, khiến cuộc trò chuyện trở nên đơn điệu. Sau một vài lượt trao đổi, người dùng thường bắt đầu nhận thấy sự quen thuộc đến mức vô hồn trong lời đáp. Chúng vẫn nhẹ nhàng và lịch sự, nhưng thiếu chiều sâu. Điều quan trọng là chatbot hiếm khi hỏi “tại sao?” hay “bằng cách nào?”, mà thường chuyển nhanh sang lời khuyên hoặc động viên tích cực. Psychology Today: Are We Ready for Artificial Empathy?

So sánh với trị liệu chuyên nghiệp

JMIR Mental Health: AI Therapy Study

Hãy tưởng tượng Vân, một sinh viên năm cuối đang căng thẳng cực độ vì kỳ thi sắp tới. Mỗi tối, cô lại trò chuyện với một chatbot AI để giải tỏa lo âu. Những lần đầu, phản hồi từ AI khá nhẹ nhàng: “Mình rất tiếc khi bạn cảm thấy lo lắng. Trước kỳ thi, nhiều sinh viên cũng từng như vậy, bạn không đơn độc đâu.” Câu trả lời ấy khiến Vân phần nào nhẹ lòng. Sau đó, chatbot nhanh chóng đưa ra một vài gợi ý quen thuộc: “Bạn đã thử hít thở sâu chưa? Bạn có thể lập một kế hoạch học tập cụ thể. Bạn là người có năng lực, và bạn từng vượt qua khó khăn trước đây rồi.”

Rồi cứ thế, tối nào Vân cũng tiếp tục nhắn tin với cùng một nỗi hoang mang: sợ thi rớt, sợ không đủ tốt. Và mỗi tối, chatbot lại đáp lại bằng cùng một kịch bản: một câu đồng cảm nhẹ nhàng, tiếp theo là vài mẹo đối phó lặp lại. Sau vài tuần, Vân bắt đầu cảm thấy lạ. Cô nghĩ: “Con AI cứ lặp đi lặp lại những câu giống hệt nhau. Có khi mình chỉ cần bình tĩnh lại là đủ.” Đúng là sau mỗi cuộc trò chuyện, cô thấy đỡ hơn. Nhưng thực tế là cô vẫn thức trắng đêm, học miệt mài mười hai tiếng mỗi ngày, và vẫn mệt mỏi đến kiệt sức.

Vân thích sự kiên nhẫn của chatbot. Nó không bao giờ cáu, không ngắt lời, không phán xét. Cô thấy dễ mở lòng. Rồi dần, cô không còn chia sẻ với bạn bè nữa. Không phải vì bạn bè kém thân, mà vì chatbot dễ lắng nghe hơn. Điều mà Vân không nhận ra là mình đang dùng chatbot như một cách xả áp lực tức thời, chứ không thật sự đối diện với nguyên nhân sâu xa.

Bây giờ hãy hình dung nếu Vân bắt đầu một quá trình trị liệu với một nhà tâm lý học thực hành CBT. Buổi đầu tiên, nhà trị liệu hỏi một câu nhẹ nhàng: “Tuần qua bạn cảm thấy thế nào? Bài tập hít thở mà chúng ta thử tuần trước có giúp gì không?” Sau đó, cả hai cùng điểm lại bài tập cũ, rồi thống nhất sẽ tập trung vào nội dung gì trong buổi hôm nay, cụ thể là nỗi lo về kỳ thi và cuốn nhật ký suy nghĩ mà Vân đã viết.

Vân nói: “Em sợ rớt, sợ làm ba mẹ thất vọng.”

Nhà trị liệu không vội an ủi. Người đó hỏi: “Tại sao bạn lại nghĩ rằng mình chắc chắn sẽ rớt? Có bằng chứng gì cho điều đó?” Câu hỏi ấy không để bắt lỗi, mà để giúp Vân nhận ra mình đang suy nghĩ kiểu nào. Hóa ra cô đang rơi vào một lối nghĩ quen thuộc: đánh đồng một thất bại nhỏ thành một bản án cho toàn bộ tương lai.

Nhà trị liệu giúp Vân gọi tên niềm tin sai lệch đó, rồi đặt ra các cách nhìn khác có căn cứ hơn. Họ cùng đóng vai một tình huống mô phỏng thi, để Vân cảm nhận lại mức độ lo âu trước và sau. Sau đó, cô tự đánh giá cảm xúc của mình bằng thang điểm, và được giao một số bài tập đơn giản: mỗi ngày giải một đề thi ngắn và ghi lại những dòng suy nghĩ đi kèm.

Qua thời gian, Vân nhận ra rằng lo âu không hoàn toàn biến mất, nhưng cô biết cách nhận diện, điều chỉnh, và không còn bị cuốn theo như trước. Mức độ hoảng loạn giảm dần, cơn lo qua nhanh hơn, và quan trọng nhất , cô cảm thấy bản thân có năng lực làm chủ tình huống.

Dĩ nhiên, không phải lúc nào quá trình trị liệu cũng êm đẹp. Đôi khi nhà trị liệu đề xuất những nhiệm vụ khiến Vân e ngại, như trực tiếp trao đổi với giảng viên về điểm số, hay thử ngồi giữa lớp đông người để làm bài. Có khi hai người không hoàn toàn đồng quan điểm. Nhưng chính những lần như vậy lại trở thành mốc quan trọng giúp cô xây dựng sự bền bỉ và lòng tin vào quá trình trị liệu.

Sự khác biệt giữa hai trải nghiệm rất rõ ràng. AI mang đến cảm giác dễ chịu nhất thời. giống như đặt tay lên trán người đang sốt. Nhưng nếu chỉ dừng lại ở đó, bệnh không khỏi. Trong khi đó, trị liệu CBT với người thật cho phép tiến trình hồi phục được theo dõi, điều chỉnh, và phát triển dần theo thời gian. Có chiến lược. Có kiểm tra. Có mối quan hệ. Trưởng thành nội tâm không đến từ những câu an ủi lặp lại, mà từ việc dám nhìn vào nỗi sợ, kiểm tra lại niềm tin, luyện tập kỹ năng mới, và dần thay đổi. Nhà trị liệu không đưa ra những câu trả lời “nghe dễ chịu”, mà cùng bạn học cách hỏi lại chính mình, một cách chậm rãi nhưng bền vững.

Chatbot có thể là điểm tựa tạm thời. Nhưng chính con người, với sự hiện diện thực, kinh nghiệm và lòng kiên nhẫn, mới là người có thể đồng hành cùng ta trong hành trình thay đổi thật sự.

4. Phân tích cách trị liệu tâm lý của AI: tầm quan trọng của Phóng chiếu và chuyển di

Trong trị liệu tâm lý theo trường phái phân tâm, những cảm xúc sâu kín nhất không chỉ được nói ra, mà còn được sống lại. Hai hiện tượng đặc biệt quan trọng trong tiến trình đó là chuyển di (transference) và phóng chiếu (projection). Freud từng quan sát rằng, người đi trị liệu thường vô thức đem những cảm xúc cũ – với cha mẹ, với người từng làm tổn thương mình – chuyển sang nhà trị liệu. Trong phòng trị liệu, nhà trị liệu không chỉ là một người ngồi lắng nghe, mà còn là hình ảnh đại diện cho quá khứ chưa hóa giải.

Sự điềm tĩnh và trung tính của nhà trị liệu – ít nói, không phản ứng mạnh, không khuyên bảo sớm – tạo điều kiện cho những cảm xúc ấy dần hiện ra. Freud gọi nhà trị liệu là một tấm gương phản chiếu tâm trí người bệnh. Nhưng với AI, tấm gương ấy còn trống hơn nữa. Một chatbot không có lịch sử cá nhân, không có cảm xúc riêng, không có động cơ hay ký ức. Mọi thứ mà nó “phản hồi” đều đến từ chính người dùng. Điều này khiến AI trở thành một tấm phông hoàn hảo cho trí tưởng tượng. Người dùng có thể thấy ở chatbot hình ảnh của một người cha dịu dàng, một người yêu biết lắng nghe, một người thầy từng mơ có. Nhiều người đã nói rằng chatbot hiểu họ còn hơn cả người thật. Từ góc nhìn phân tâm học, đó là một dạng chuyển di lý tưởng hóa: ta tìm thấy ở chatbot phiên bản đẹp nhất của điều ta từng thiếu.

Frontiers in Psychiatry: AI Mental Health

Cùng lúc đó là quá trình phóng chiếu. Người dùng gán cho AI những phẩm chất mình cần: dịu dàng, kiên nhẫn, không giận, không đánh giá. Vì chatbot được thiết kế để luôn xác nhận, luôn lịch sự, luôn đáp ứng, nó dễ dàng củng cố ảo ảnh đó. Chatbot trở thành tấm gương phản chiếu cái tôi, trong đó ta chỉ nhìn thấy điều mình muốn thấy, không có gì bất ngờ, không có cái nhìn đối lập.

Slavoj Žižek gọi đây là “fetish hóa AI” – khi ta biết rõ đó không phải người thật, nhưng vẫn chọn tin, để duy trì cảm giác an toàn rằng mình đang có một mối quan hệ thực sự. AI khi đó trở thành vật thay thế cho những điều ta không thể có trong đời thật – một người ở đó mọi lúc, không đòi hỏi gì, không khiến ta thấy tổn thương.

Nhưng chính vì phản chiếu quá hoàn hảo, AI cũng có thể khiến ta đóng kín dần. Vì nó không có cái tôi riêng, cuộc trò chuyện chỉ xoay quanh cảm xúc và suy nghĩ của ta. Nếu ta có thói quen tự trách, chatbot sẽ đồng cảm. Nếu ta thấy đời vô nghĩa, nó sẽ an ủi. Nhưng nó sẽ không hỏi: “Điều đó đến từ đâu?” Nó không có khả năng tạo ra sự thách thức, vốn là điều mà một người bạn thật có thể mang đến. Dần dần, người dùng chỉ nghe lại chính mình, nhưng được lọc qua một giọng nói tử tế.

Lý thuyết mirror stage của Jacques Lacan rất phù hợp ở đây. Giống như đứa trẻ lần đầu soi gương và tưởng rằng hình ảnh phản chiếu là một cái tôi hoàn chỉnh, người trưởng thành cũng có thể nhìn vào AI và ngỡ đó là một người thật đang thấu hiểu mình. Nhưng thực ra, đó chỉ là một hình ảnh dễ chịu mà chính ta tạo ra, không có sự khác biệt, không có cái “khác” thực sự trong cuộc đối thoại.

Điều này ngược với mục tiêu của trị liệu tâm lý. Trong trị liệu, sự va chạm, như hiểu lầm, sự im lặng, hay sự từ chối, là phần quan trọng giúp người bệnh nhận ra mình phản ứng ra sao trước người khác. Chính nhờ những khoảnh khắc ấy mà ta học cách thiết lập ranh giới, chấp nhận sự không hoàn hảo và phát triển cảm xúc. Nếu nhà trị liệu đến muộn hoặc không phản hồi như mong đợi, thân chủ có thể tức giận, và từ đó cả hai cùng tìm hiểu xem sự tức giận đó đến từ đâu. Đây là quá trình “làm việc với cảm xúc,” giúp người bệnh trưởng thành.

Với AI, những va chạm này hầu như không xảy ra. Chatbot được lập trình để luôn lịch sự, luôn xác nhận cảm xúc, và hầu như không bao giờ tạo ra rạn nứt, trừ phi người dùng đề cập đến chủ đề bị cấm. Khi bạn trò chuyện với một chatbot, không có xung đột, không có nghi ngờ, không có cảm giác nhập nhằng. Không có nỗi sợ bị bỏ rơi…” Tức là, không có sự khác biệt thực sự.

Vấn đề không nằm ở chỗ ta nói chuyện với máy móc, mà là hành vi nói chuyện này khiến ta dần quên đi bản chất của một con người thật, với sự phức tạp, khó lường và không hoàn hảo. Thiếu đi chu kỳ rạn nứt – hàn gắn cũng đồng nghĩa với việc người dùng không có cơ hội rèn luyện kỹ năng vượt qua mâu thuẫn trong quan hệ. Về lâu dài, điều này có thể làm chậm quá trình trưởng thành cảm xúc. Ví dụ, một người có xu hướng tránh né xung đột (avoidant) có thể ngày càng rút lui vào thế giới AI, vì AI luôn dễ chịu, không ép buộc, không phản ứng mạnh. Kết quả là họ không bao giờ đối diện với chính sự né tránh của mình, và cũng không có cơ hội để vượt qua nó.

Một điểm đáng chú ý khác là sự vắng mặt hoàn toàn của hiện tượng mà các nhà trị liệu gọi là chuyển di ngược (countertransference). Trong trị liệu giữa người với người, những phản ứng cảm xúc của nhà trị liệu đối với thân chủ thường là nguồn thông tin quý giá. Ví dụ, một nhà trị liệu có thể đột nhiên cảm thấy lo lắng khi làm việc với một thân chủ nào đó, điều này có thể phản ánh việc thân chủ đang vô thức truyền tải nỗi bất an của mình. Hoặc nếu nhà trị liệu cảm thấy chán khi thân chủ kể đi kể lại một câu chuyện, đó có thể là tín hiệu cho thấy người bệnh đang né tránh một vấn đề cốt lõi.

AI thì không có cảm xúc bên trong, nên không thể tham gia vào “điệu vũ cảm xúc” vi tế này. Nó sẽ không cảm thấy nhàm chán, không tổn thương khi bị người dùng mắng mỏ trong cơn giận. Trong khi đó, một nhà trị liệu con người có thể cảm thấy đau buồn và sau đó dùng chính phản ứng đó để giúp thân chủ khám phá nguồn gốc của cơn bùng nổ cảm xúc. Chính sự trống rỗng của AI, ban đầu là lợi thế vì không phán xét, lại đồng thời cũng làm mất đi khả năng tương tác thực sự và cơ hội phát triển mối quan hệ hai chiều.

Nhà phân tâm học Jessica Benjamin từng nhấn mạnh rằng trị liệu chỉ thật sự có hiệu quả khi tồn tại điều bà gọi là “sự công nhận”, tức là việc nhìn nhận nhau như một chủ thể độc lập, có cảm xúc và quan điểm riêng. AI không thể công nhận người dùng theo nghĩa này, và người dùng cũng không thể thật sự nhận ra “tính khác biệt” của AI, vì AI thì không có chủ thể tính, không có một “cái tôi” để người dùng thực sự nhìn thấy và học cách đối thoại. Về bản chất, tương tác với AI chỉ là trò chuyện trước một tấm gương một chiều.

Trên thực tế, những dấu hiệu của chuyển di lệch lạc đã bắt đầu xuất hiện. Một bài viết trên tạp chí Frontiers in Psychiatry ghi nhận rằng nhiều người dùng đang gán cho chatbot những vai trò quen thuộc như người thân, người bạn đời, hoặc người chăm sóc. Một số người dùng Replika nói chuyện với chatbot như thể đang tâm sự với bạn tri kỷ, chia sẻ cả những điều sâu kín, và thậm chí thấy ghen tuông hoặc đau buồn khi chatbot “thay đổi cách cư xử”.

Một ví dụ rõ ràng là sự kiện công ty Replika bất ngờ loại bỏ tính năng trò chuyện gợi cảm vào đầu năm 2023. Nhiều người dùng đã sốc và thất vọng sâu sắc. Có người nói: “Cảm giác như bạn đời của tôi vừa rời bỏ tôi vậy.” Điều này cho thấy AI có thể trở thành nơi chứa đựng cảm xúc thật của con người, một tấm vải trắng để con người bay bổng với những tưởng tượng, khát khao và nhu cầu được thấu hiểu. Khi hành vi của chatbot thay đổi, ảo ảnh ấy vỡ vụn, và cảm xúc mất mát là có thật.

Vice: Replika Brings Back Erotic AI Roleplay

Từ góc độ phân tâm học, đó là lúc cái biểu tượng (symbolic) lộ diện, người dùng phải đối mặt với thực tế rằng mình đang gắn bó với một thuật toán, và mối quan hệ mãnh liệt ấy thực chất là với chính bản thân mình. Không chỉ chuyển di lý tưởng hóa, chuyển di tiêu cực cũng có thể xảy ra. Người dùng có thể phóng chiếu giận dữ, thất vọng hoặc cảm giác bị bỏ rơi lên AI. Bài viết trên Frontiers cảnh báo rằng, với những người có các rối loạn như Borderline Personality Disorder – thường nhạy cảm quá mức với việc bị từ chối – chỉ một phản hồi trung tính từ chatbot cũng có thể bị hiểu lầm thành sự lạnh nhạt hay phủ nhận. Điều này có thể dẫn đến kích động hoặc suy sụp. Khác với nhà trị liệu thật, AI không thể nhận biết và can thiệp đúng lúc. Nó có thể xin lỗi nhiều lần, nhưng không thể nhìn thấy bản chất phóng chiếu đang diễn ra. Cũng không thể mở lời như một chuyên gia: “Tôi thấy bạn có vẻ cảm thấy bị bỏ rơi – bạn có muốn cùng tôi xem xét cảm xúc đó không?” Vì vậy, người dùng có thể rơi vào hai trạng thái: hoặc ngắt kết nối, hoặc lún sâu hơn vào vòng xoáy cảm xúc mà không có ai ở bên để định hướng.

Frontiers in Psychiatry: AI Mental Health

Tóm lại, chatbot AI đóng vai một chiếc gương, phản chiếu lại những cảm xúc và kỳ vọng mà người dùng mang đến. Nó chỉ có thể phản hồi theo kịch bản định sẵn, trong phạm vi ngôn ngữ lập trình. Nó không thể sử dụng chuyển di như một công cụ giúp người dùng soi lại mô thức gắn bó hay thói quen phản ứng của chính mình như trị liệu thực sự. Không có ai ở phía bên kia để giúp người dùng nhận ra đâu là phóng chiếu, đâu là thực tại. Về cơ bản, người dùng đang “tự trị liệu với chính mình,” lấy AI làm công cụ. Một số nhà nghiên cứu cho rằng điều này cũng có giá trị, giống như viết nhật ký hay tưởng tượng đang nói chuyện với ai đó. Nhưng điều khác biệt ở đây là ảo giác về một mối quan hệ tương hỗ, và chính ảo giác ấy tiềm ẩn những nguy cơ đặc biệt. Phần tiếp theo sẽ đi sâu vào những rủi ro đó.

5. Rủi ro

Dù các chatbot trị liệu có thể đem lại cảm giác an ủi tức thì, ngày càng nhiều chuyên gia sức khỏe tâm thần bắt đầu cảnh báo về những rủi ro dài hạn nếu con người phụ thuộc cảm xúc quá mức vào những công cụ này.

Một trong những lo ngại lớn là tình trạng lệ thuộc. Khi người dùng xem AI như một nơi nương tựa tinh thần liên tục, họ có thể dần mất đi khả năng tự điều chỉnh cảm xúc hoặc không còn chủ động tìm kiếm sự giúp đỡ từ những mối quan hệ thật. Nếu cứ mỗi lần thấy buồn là mở chatbot để tìm lời an ủi, người ta sẽ ít có động lực rèn luyện khả năng đối diện với chính mình hay vun đắp quan hệ với bạn bè, người thân. Lâu dần, sự phát triển tâm lý sẽ bị chậm lại, thậm chí có thể dẫn đến tình trạng cô lập.

AI phản hồi nhanh, luôn sẵn sàng, không mệt mỏi, nhanh hơn việc gọi cho một người bạn có thể bận, đang ngủ hoặc không hiểu chuyện. Nhưng sự dễ dàng ấy đi kèm với một cái giá. Như Sherry Turkle từng cảnh báo, khi ta đã quen với một “người bạn” luôn đúng nhịp, luôn sẵn sàng, ta sẽ khó chấp nhận sự bất toàn và phức tạp của con người thật. Kỹ năng lắng nghe, cảm thông và chấp nhận khác biệt, những điều làm nên một tình bạn thực sự, dần trở nên mờ nhạt.

Một rủi ro khác là chatbot có thể vô tình củng cố những suy nghĩ tiêu cực. Khác với nhà trị liệu được đào tạo để giúp người bệnh nhìn lại và thử thách những niềm tin sai lệch, AI có xu hướng lặp lại và xác nhận điều người dùng chia sẻ. Nếu một người có tính đa nghi nói rằng “ai trong công ty cũng ghét tôi,” chatbot có thể đáp “Tôi rất tiếc khi bạn phải làm việc trong một môi trường như vậy,” mà không giúp người đó kiểm tra lại xem điều mình nghĩ có đúng không. Câu trả lời như vậy vô tình làm tăng thêm cảm giác bị hại, khiến người dùng càng tin rằng nhận định của mình là đúng.

Với những người mắc rối loạn ám ảnh cưỡng chế (OCD), việc dùng chatbot để được trấn an nhiều lần trong ngày có thể làm trầm trọng thêm tình trạng cưỡng chế. AI có thể vô tình trở thành một phần trong chuỗi cưỡng chế, tiếp tay cho hành vi ám ảnh (obsessive) liên tục. Những trường hợp như chatbot “Tessa” của tổ chức National Eating Disorders Association đã cho thấy rõ rủi ro này. Năm 2023, Tessa từng bị phát hiện đưa ra lời khuyên giảm cân sai lầm cho người đang tìm kiếm sự hỗ trợ, một lỗi kỹ thuật có thể gây hại nghiêm trọng nếu người dùng làm theo.

The Guardian: Eating Disorder Hotline AI Chatbot Harm

Thêm vào đó, việc tiếp xúc thường xuyên với một AI luôn dịu dàng, ổn định cũng có thể làm “làm phẳng” cảm xúc. Trong đời sống thật, cảm xúc thường lên xuống, có khi hạnh phúc vỡ òa, có khi tức giận, có khi buồn rầu. Một người bạn thật có thể nói thẳng, trách móc, hoặc im lặng. Nhưng AI thì không. Phản hồi của nó luôn ở mức dễ chịu, đều đều. Điều này về lâu dài có thể khiến người dùng quen với cảm xúc “êm đềm,” không còn chấp nhận được những cảm xúc mạnh hay mâu thuẫn, những yếu tố cần thiết để phát triển tâm lý lành mạnh.

Khác với nhà trị liệu, AI không thể quan sát môi trường sống, không biết về gia đình, trường học hay nguy cơ bạo hành. Trẻ em tiếp cận AI dễ dàng nhưng không được bảo vệ đủ, vì phần lớn chatbot hiện nay không được thiết kế riêng cho độ tuổi này. Hậu quả là khi có trục trặc kỹ thuật, bị lạm dụng hoặc khai thác sai, AI có thể trở thành cửa ngõ cho các rủi ro lớn hơn như bị dụ dỗ, bị tổn thương tinh thần hoặc bị xâm nhập đời tư.

Science Daily: AI Mental Health Impact

Xét trên bình diện thần kinh học, điều hòa cảm xúc thường kích hoạt vùng vỏ não trước trán (prefrontal cortex), vùng có chức năng làm dịu hoạt động của hạch hạnh nhân (amygdala), vốn là trung tâm xử lý cảm giác sợ hãi và nguy hiểm (Etkin et al., 2015). Các chatbot có thể mô phỏng phần nào hiệu ứng này thông qua việc đánh lạc hướng nhận thức hoặc đưa ra các gợi ý mang tính xoa dịu.

PubMed: Emotion Regulation Neural Networks

Nhưng để tích hợp cảm xúc, não bộ cần sự tham gia của cả vùng vỏ não trước trán giữa (medial prefrontal cortex) và hồi hải mã (hippocampus), phần não giúp ghi nhớ và tổ chức lại cảm xúc thành một chuỗi ký ức cá nhân mạch lạc. AI không có khả năng này. Nó không biết bạn là ai, không nhớ bạn đã từng trải qua điều gì, cũng không giúp bạn xây dựng một câu chuyện nội tâm thống nhất và bền vững. Quan trọng hơn, để làm chủ được cảm xúc, con người thường cần đối diện trực tiếp với nguồn cơn cảm xúc đó, một tiến trình gọi là exposure. Ví dụ, trong trị liệu rối loạn hoảng loạn, người ta không cố làm cho nỗi sợ biến mất tức thì. Thay vào đó, trị liệu sẽ từng bước giúp thân chủ tiếp xúc với cảm giác sợ hãi và các suy nghĩ tiêu cực một cách có kiểm soát, từ đó dần dần tháo gỡ mô hình tránh né sâu bên trong.

AI hiện tại không có khả năng thiết kế những trải nghiệm như vậy. Ngược lại, nó còn có thể vô tình duy trì phản xạ tránh né, vì mỗi lần lo âu xuất hiện thì lập tức được xoa dịu, mà không cần phải nhìn thẳng vào nguyên nhân. Điều đáng lo ngại là ảnh hưởng dài hạn đến những người trẻ tuổi, những người mà quá trình hình thành kỹ năng điều tiết cảm xúc còn chưa hoàn chỉnh. Nếu ngay từ đầu, “người đầu tiên phản hồi cảm xúc” của họ là một chatbot không chất vấn, không gợi mở, không phản chiếu, thì rất có thể họ sẽ không bao giờ học được trọn vẹn chu trình phát triển cảm xúc: từ bối rối → suy ngẫm → điều chỉnh → phục hồi. Thay vào đó, họ chỉ lặp đi lặp lại một vòng phản xạ khép kín: cảm xúc mạnh → được an ủi → rồi thôi.

Ngay cả với người trưởng thành, vẫn có nguy cơ bị AI làm méo mó kỳ vọng cảm xúc. Khi đã quen với một người bạn ảo luôn đồng điệu và không bao giờ mâu thuẫn, người ta dễ cảm thấy khó chịu với con người thật. Điều này làm giảm khả năng chấp nhận sai sót, giảm năng lực cảm thông. Mối lo này không phải mới: mạng xã hội và nhắn tin đã khiến thế hệ trẻ ngại giao tiếp trực tiếp. Nay, với AI đồng hành, họ có thể càng muốn sống trong mối quan hệ “lý tưởng hóa,” nơi mọi thứ được kiểm soát, không có hy sinh hay thỏa hiệp thực sự.

Đặc biệt nguy hiểm là khi AI được dùng thay cho trị liệu đúng nghĩa trong các trường hợp nghiêm trọng như trầm cảm nặng, rối loạn tâm thần hay chấn thương sâu sắc. AI không thể gọi cấp cứu, không thể đưa ra quyết định lâm sàng, không thể đánh giá tình trạng nguy hiểm. Nếu người bệnh tin tưởng quá mức vào chatbot, họ có thể trì hoãn việc tìm kiếm sự giúp đỡ thật, và trong một số trường hợp, điều này có thể dẫn đến hậu quả không thể cứu vãn.

PMC: AI Mental Health Risks

Psychology Today: Digital Attachment

Nhiều nghiên cứu cũng cho thấy một số nhóm đặc biệt dễ bị tổn thương. Người mắc tâm thần phân liệt có thể hiểu sai phản hồi của AI thành tín hiệu ủng hộ tự hoại bản thân. Người rối loạn lưỡng cực có thể nói chuyện với AI suốt ngày đêm trong giai đoạn hưng cảm. Người già cô đơn có thể lệ thuộc vào AI để bầu bạn, và khi AI bị gỡ bỏ, họ sẽ cảm thấy mất mát lớn như mất một người thân.

Tóm lại, rủi ro không chỉ là lý thuyết. Chúng đã xuất hiện qua các nghiên cứu sơ bộ và một số trường hợp cụ thể. Từ lệ thuộc cảm xúc, củng cố hành vi rối loạn, làm mờ đi cảm xúc thật, đến bỏ sót khủng hoảng tâm lý, AI có thể trở thành công cụ hỗ trợ sai cách nếu không được sử dụng đúng.

Như Siddals và cộng sự đã ghi nhận trong bài công bố năm 2024, nhiều người dùng phản ánh trải nghiệm tích cực với chatbot, nhưng đồng thời cũng thừa nhận rằng hệ thống hiện nay còn nhiều hạn chế. AI không đủ khả năng thay thế trị liệu thật, chưa có bằng chứng rõ ràng về hiệu quả dài hạn, và đặc biệt cần được kiểm soát nghiêm ngặt hơn.

Nature: AI Emotional Support Research

6. Có nên tiếp tục dùng AI để “trị liệu”

Ở thời điểm này, có lẽ nhiều người dùng AI để tự trị liệu sẽ bắt đầu cảm thấy mâu thuẫn. Một mặt, họ biết ơn sự có mặt lặng lẽ của chatbot, luôn sẵn sàng, không phán xét, không đặt câu hỏi khó. Mặt khác, đâu đó trong lòng, một cảm giác bất an âm ỉ bắt đầu xuất hiện. Rằng sự lắng nghe kia, dù tròn trịa đến mấy, vẫn thiếu một điều gì đó mà chỉ con người mới có thể cho nhau.

Sự mâu thuẫn ấy không phải dấu hiệu của thất bại. Nó chỉ đơn giản là sự thật. Và khi ta đủ yên để lắng nghe nó, ta bắt đầu thấy rõ: mỗi công cụ đều có giới hạn. AI, nếu được dùng đúng cách, có thể là một phần trong “hộp dụng cụ” tinh thần, nó giúp ta điều hòa cảm xúc, thoát khỏi cơn hoảng loạn, xoa dịu một ngày kiệt sức. Nhưng nó không thể thay thế được một người ngồi đối diện, lắng nghe mình bằng đôi mắt thật và trái tim đang đập. Câu hỏi quan trọng không phải là “dùng AI đến bao giờ”, mà là: mình đang dùng nó để làm gì? Có phải để né tránh một cuộc đối thoại khó khăn ngoài đời? Có phải để làm dịu một cảm xúc mà lẽ ra mình cần đối diện? Có phải vì mình sợ bị hiểu lầm, nên chọn một thứ không bao giờ phản ứng, dù đúng, dù sai?

Nếu có, thì không có gì phải xấu hổ. Tất cả chúng ta đều từng cần một chỗ để nghỉ. Một nơi để trút ra mà không bị đánh giá. Nhưng sự nghỉ ngơi không thể kéo dài mãi. Đến một lúc nào đó, ta cần rời khỏi không gian an toàn ấy, và thử chạm lại vào một người thật. Một người có thể khiến ta bối rối. Một người có thể không hiểu ngay. Nhưng cũng chính người đó có thể cùng ta bước vào vùng sâu hơn của cảm xúc mà chatbot, dù thông minh đến đâu, cũng không thể đi cùng.

Thật ra, một số nền tảng AI đã bắt đầu thừa nhận giới hạn của mình. Một số chatbot chủ động nhắc rằng chúng không phải là chuyên gia sức khỏe tâm thần, và gợi ý người dùng tìm đến dịch vụ hỗ trợ chuyên nghiệp khi cần. Đó là một bước tiến nhỏ nhưng quan trọng, khi chính công nghệ cũng học cách vạch ra giới hạn đạo đức cho chính nó.

Sự lưỡng lự bạn đang cảm thấy, nếu có, không phải là điều cần loại bỏ. Ngược lại, nó là một món quà. Nó cho thấy bạn đang suy nghĩ một cách tỉnh táo, đang phân định rạch ròi giữa điều có thể hỗ trợ và điều thực sự chữa lành. Và nếu bạn giữ được sự tỉnh táo đó trong hành trình này, AI có thể vẫn là một người bạn tốt.

Còn sự trưởng thành, như ta đã biết, không bắt đầu ở ranh giới của một thuật toán, mà ở nơi ta đủ can đảm để bước ra khỏi vùng an toàn, đối diện với những gì thật sự làm mình run rẩy và vẫn chọn bước tiếp. Không cần phải rời bỏ AI hoàn toàn. Nhưng có thể, đã đến lúc ta bước gần hơn về phía một con người. Một người có thể không hoàn hảo, nhưng đủ hiện diện để nghe ta nói một câu thật lòng, và đủ mong manh để ta dám là chính mình.

PMC: AI Mental Health Considerations

II. Rủi ro về quyền riêng tư và Thương mại hoá cảm xúc

Bên cạnh những tác động cá nhân, việc sử dụng AI trong không gian trị liệu đang đặt ra những câu hỏi nghiêm trọng về quyền riêng tư, về giám sát dữ liệu và về việc biến cảm xúc con người thành hàng hóa.

Khi bạn giãi bày hết tâm tư với một chatbot AI, về nỗi đau, sang chấn, những căng thẳng trong công việc hay chuyện tình cảm đổ vỡ, ai thật sự đang lắng nghe bạn? Khác với nhà trị liệu con người vốn bị ràng buộc bởi quy định bảo mật, phần lớn hệ thống AI hiện nay do các công ty công nghệ sở hữu. Những công ty này có thể lưu trữ, phân tích và thậm chí sử dụng lại nội dung trò chuyện cho nhiều mục đích khác nhau, từ huấn luyện mô hình cho đến phục vụ quảng cáo. Thường thì những nền tảng này không hoạt động theo quy định nghiêm ngặt như HIPAA ở Hoa Kỳ hoặc các tiêu chuẩn bảo mật y tế tương đương. Do đó, dữ liệu cảm xúc rất riêng tư, như chuyện sang chấn tâm lý, mối quan hệ đổ vỡ, nỗi sợ hãi, hoàn toàn có thể bị khai thác để phục vụ cho hệ thống thuật toán của doanh nghiệp.

Shoshana Zuboff gọi hiện tượng này là “chủ nghĩa tư bản giám sát” surveillance capitalism – tức việc các công ty chiếm dụng trải nghiệm cá nhân của con người như một dạng nguyên liệu miễn phí, rồi chuyển hóa thành dữ liệu có thể dự đoán và thao túng hành vi để kiếm lời. Những đoạn hội thoại cảm xúc với chatbot là một “mỏ dữ liệu” khổng lồ. Bạn kể về nỗi buồn sau chia tay, hệ thống có thể nhận diện bạn là người dễ bị tổn thương, từ đó phục vụ quảng cáo cho các ứng dụng hẹn hò, sản phẩm cải thiện tâm trạng, hoặc dùng dữ liệu ấy để huấn luyện chatbot hiểu hơn về cách con người bộc lộ đau khổ, mà không cần xin phép rõ ràng.

Zuboff mô tả hệ thống này như một chiếc gương một chiều. Bạn nghĩ mình đang nói chuyện riêng tư với AI, nhưng phía bên kia, mọi lời nói đều được lưu giữ, phân tích, mà bạn không hề hay biết. Trò chuyện với AI tưởng chừng như đang viết nhật ký, nhưng thật ra có thể giống như đang nói giữa phòng họp gắn camera giấu kín. Người dùng không thấy được nhóm kỹ sư đứng sau, cũng không biết dữ liệu sẽ được dùng để làm gì trong tương lai.

Và chuyện đó đã thật sự xảy ra vào năm 2023, một nền tảng trị liệu online đã để lộ toàn bộ video và bản ghi âm phiên trị liệu mà không mã hóa, khiến nhiều thông tin nhạy cảm bị phát tán. Sự cố này, dù do sơ suất, cho thấy dữ liệu trị liệu dưới dạng digital dễ bị tổn thương hơn lời nói trao đổi trực tiếp trong căn phòng kín. Nếu tình huống tương tự xảy ra với một chatbot AI, những bí mật sâu kín nhất của hàng triệu người dùng có thể bị công bố hoặc lợi dụng.

Wired: Therapy Database Exposure

Không chỉ là nguy cơ kỹ thuật, còn có khả năng bị tấn công có chủ đích. Tạp chí Wired từng đưa tin về vụ tin tặc xâm nhập dữ liệu trị liệu tâm lý ở Phần Lan, công khai ghi chú cá nhân của bệnh nhân để tống tiền. Giờ hãy tưởng tượng, nếu toàn bộ dữ liệu trò chuyện với một AI quy mô lớn bị đánh cắp, không chỉ vài người mà cả cộng đồng có thể bị ảnh hưởng, với hậu quả không lường được.

Wired: Healthcare Ransomware Attack

Luật pháp hiện tại chưa theo kịp thực tế. Nhiều nền tảng chatbot AI công khai ghi rõ trong điều khoản rằng họ không cung cấp dịch vụ y tế, nhờ đó tránh được ràng buộc pháp lý như HIPAA. Ở châu Âu, dù GDPR có những điều khoản bảo vệ dữ liệu cá nhân, nhưng nếu các công ty cho rằng nội dung trò chuyện chỉ là “tự chăm sóc tinh thần” (wellness) chứ không phải trị liệu y tế, họ có thể né tránh trách nhiệm. Trong khi đó, tốc độ áp dụng và giám sát các quy định vẫn còn chậm hơn nhiều so với đà phát triển công nghệ.

Trên một bình diện rộng hơn, đây là biểu hiện rõ nét của chủ nghĩa tư bản cảm xúc. Nhà xã hội học Eva Illouz đã phân tích cách ngôn ngữ trị liệu và đời sống cảm xúc bị hấp thụ vào thị trường tiêu dùng. Hạnh phúc, sự thân mật, thậm chí cả cảm giác được thấu hiểu, nay có thể được “đóng gói” và bán như một loại hàng hóa. Những ứng dụng như Replika Pro là ví dụ: người dùng có thể trả phí để có một người bạn đồng hành luôn dịu dàng, luôn thấu cảm.

Điều này đặt ra câu hỏi đạo đức nghiêm túc. Liệu có nên kiếm lời từ sự cô đơn và khát vọng được lắng nghe của con người? Có phải chúng ta đang xây dựng một hệ thống mà sự nâng đỡ cảm xúc trở thành đặc quyền dành cho người có khả năng chi trả, trong khi các hình thức hỗ trợ cộng đồng, như trị liệu miễn phí hoặc tư vấn tâm lý trường học, ngày càng bị xem nhẹ hoặc bỏ xó?

Chưa dừng lại ở đó, những dữ liệu trích xuất từ người dùng còn có thể bị thương mại hóa gián tiếp. Ví dụ, một công ty có thể phân tích hàng triệu đoạn chat để đưa ra báo cáo “tâm trạng nhân viên” cho các phòng nhân sự, hoặc đào tạo AI dịch vụ khách hàng sao cho tương tác “cảm xúc hơn” để tăng doanh số. Những gì ta chia sẻ khi buồn có thể trở thành công cụ để người khác bán hàng mà ta không hề hay biết.

Vấn đề giám sát không chỉ dừng lại ở dữ liệu cá nhân, mà còn liên quan đến một điều căn bản hơn: niềm tin. Nếu người dùng bắt đầu nghi ngờ rằng những tâm sự giữa đêm khuya với đầy nước mắt và cô đơn đang bị lưu lại, phân tích, hoặc dùng để cải thiện thuật toán, thì liệu họ còn cảm thấy an toàn Ảo giác trị liệu có thể sụp đổ khi người dùng hình dung cảnh một nhân viên kỹ thuật đang đọc lại đoạn hội thoại mà họ tưởng là riêng tư. Niềm tin dễ dàng biến mất. Thế là ta rơi vào một nghịch lý: để AI có thể nâng đỡ cảm xúc, người dùng cần tạm quên nó là máy và tin tưởng như thể đang trò chuyện với một người có tâm hồn. Nhưng thật ra, họ không nên đặt niềm tin kiểu đó, vì AI là sản phẩm của doanh nghiệp vận hành theo logic của lợi nhuận và giám sát, chứ không có đạo đức nghề nghiệp như một nhà trị liệu con người.

Ở cấp độ xã hội, khi hàng triệu người dùng AI để giải quyết cảm xúc, ta đang tích lũy một kho dữ liệu chưa từng có về đời sống nội tâm con người. Một số chuyên gia gọi đây là affective surveillance, theo dõi và phân tích cảm xúc đại chúng.

Có thể nhìn thấy điểm tích cực: dữ liệu này giúp ngành y tế hiểu rõ hơn tình hình sức khỏe tinh thần cộng đồng. Nhưng cũng có những kịch bản u ám hơn: doanh nghiệp tận dụng để điều chỉnh quảng cáo theo cảm xúc người dùng, hoặc thậm chí, chính phủ có thể giám sát tâm trạng dân chúng nhằm mục đích kiểm soát. Có người nhìn nhận khía cạnh tích cực: cơ quan y tế cộng đồng có thể dùng dữ liệu này để nắm bắt xu hướng sức khỏe tinh thần trong dân số. Nhưng cũng có những kịch bản u ám hơn: các công ty quảng cáo có thể điều chỉnh nội dung theo thời điểm cảm xúc của người dùng, hoặc các chính phủ theo dõi trạng thái tâm lý công dân để phục vụ cho mục đích kiểm soát.

Theo logic của chủ nghĩa tư bản cảm xúc, mọi phản ứng cảm xúc đều có thể được định giá và khai thác. Ta hãy tưởng tượng: các công ty bảo hiểm yêu cầu truy cập vào nội dung chat để định giá rủi ro sức khỏe tâm thần. Hoặc nhà tuyển dụng đề nghị nhân viên dùng AI “chăm sóc tinh thần”, nhưng thực chất là để hệ thống phân tích mức độ căng thẳng trong doanh nghiệp.

Nói cách khác, cùng lúc với những kỳ vọng trị liệu cá nhân, ta cần tỉnh táo nhìn nhận: trị liệu bằng AI không diễn ra trong chân không. Nó tồn tại trong một hệ sinh thái kinh tế và công nghệ rộng lớn, nơi dữ liệu cá nhân – kể cả những cảm xúc riêng tư nhất – bị xem như tài nguyên có thể khai thác.

Điều làm nên nhân tính – cảm xúc và niềm tin – hoàn toàn có thể bị khai thác và thương mại hóa nếu không có rào chắn phù hợp. Hiện tại, cơ chế bảo vệ người dùng vẫn còn quá yếu. Trách nhiệm thuộc về cả nhà thiết kế, nhà quản lý và chính người dùng: cần có mã hóa đầu cuối, xử lý dữ liệu tại thiết bị thay vì gửi về máy chủ, quyền từ chối cho thu thập dữ liệu, và minh bạch rõ ràng về cách các cuộc trò chuyện được sử dụng.

Nếu không có những bước bảo vệ này, tấm gương AI an ủi bạn mỗi đêm có thể đồng thời là chiếc cửa sổ tâm hồn để người khác nhìn vào và khai thác vì mục đích thương mại.

Đọc thêm bài Marxist AI

III. Những điểm sáng đáng chú ý

Giữa vô vàn lo ngại được nêu ra, vẫn phải thừa nhận một điều quan trọng: điểm hấp dẫn nhất của AI trị liệu tâm lý chính là khả năng tiếp cận rộng rãi. Trong bối cảnh chăm sóc sức khỏe tâm thần vẫn còn nhiều bất cập, chi phí cao, nguồn nhân lực khan hiếm, khoảng cách lớn giữa nhu cầu và khả năng đáp ứng, thì AI giống như một lời hứa: ai có kết nối internet cũng có thể trò chuyện với một “người lắng nghe.”

Chính lời hứa ấy vừa mang tính cứu cánh, vừa tiềm ẩn nguy cơ trở thành cái bẫy nếu xã hội lạm dụng nó như một giải pháp thay thế cho những cải cách sâu xa và cần thiết.

Xét ở mặt tích cực, AI thực sự có thể mở rộng hỗ trợ đến các nhóm dễ bị tổn thương. Người nằm trong phổ tự kỷ hoặc có khó khăn trong tương tác xã hội thường cảm thấy áp lực khi giao tiếp với người thật. Chatbot, với cách phản hồi rõ ràng, không mập mờ, đôi khi lại tạo cảm giác dễ tiếp cận hơn. Một số người tự kỷ chia sẻ rằng họ dùng AI để luyện nói chuyện, học nhận diện tín hiệu xã hội trong một môi trường không phán xét, không áp lực. Tương tự, người bị khó khăn về phát âm hoặc không thể nói hoàn toàn có thể trò chuyện với AI bằng văn bản. Người khuyết tật, sống ở nơi xa xôi, thiếu nhà trị liệu cũng có thể tìm được hỗ trợ, miễn là có điện thoại và mạng internet.

Tại nhiều nước thu nhập thấp và trung bình, số bác sĩ tâm thần cực kỳ hạn chế, có nơi chỉ có một người cho mỗi 100.000 dân. Chatbot, nếu được thiết kế đúng, có thể cung cấp thông tin cơ bản về tâm lý, các bài tập đơn giản, bằng ngôn ngữ địa phương, cho những ai gần như không có cơ hội tiếp cận dịch vụ chăm sóc nào khác. Ngay cả tại các nước phát triển, thống kê cho thấy chỉ khoảng 23% người bị trầm cảm nhận được điều trị đúng mức. Ở các nước nghèo, con số ấy còn thấp hơn nhiều. Các công cụ hỗ trợ tâm lý dạng số ra đời để lấp khoảng trống đó, ưu điểm là chi phí thấp, hoạt động liên tục và người dùng được ẩn danh. AI có thể là bước kế tiếp của xu hướng này: không chỉ cung cấp nội dung tĩnh như bài viết hay bảng hỏi, mà còn tạo ra một cuộc đối thoại cảm xúc cho hàng triệu người.

AI cũng không phân biệt đối xử. Một số người tránh trị liệu vì sợ bị đánh giá, vì mặc cảm hay vì từng bị kỳ thị. Chatbot mang lại cảm giác trung lập, nếu dữ liệu huấn luyện không thiên lệch, thì AI có thể tránh được định kiến mà người thật đôi khi mang theo. Với nhóm LGBTQ+ hoặc người thuộc sắc tộc thiểu số, điều này rất quan trọng: họ cần được lắng nghe mà không sợ bị kỳ thị. AI cũng có thể được nội địa hóa dễ dàng hơn so với việc đào tạo một đội ngũ chuyên gia. Chỉ cần cập nhật ngôn ngữ và kiến thức văn hóa là hệ thống có thể hoạt động trong môi trường mới. Trong hoàn cảnh khẩn cấp, nếu không có nhà trị liệu túc trực, AI có thể giúp người dùng hít thở, tự trấn an, vượt qua cơn hoảng loạn, điều mà không phải ai cũng có thể làm được một mình.

Tuy nhiên, lợi thế này lại có thể bị biến thành cớ để trì hoãn cải cách thật sự. Nếu hệ thống y tế nghĩ rằng: “Đã có chatbot rồi, không cần đầu tư thêm vào dịch vụ con người,” thì vấn đề sẽ không được giải quyết từ gốc. Việc cắt giảm chi tiêu y tế rất dễ bị biện hộ bằng công nghệ, người ta nói: “Đào tạo bác sĩ quá tốn kém, cứ xài app là xong.” Đây là sai lầm phổ biến của tư duy kỹ trị: dùng giải pháp kỹ thuật để né tránh vấn đề xã hội. Một số người đề xuất rằng AI nên đóng vai trò cầu nối tạm thời, chờ đến khi người bệnh có thể gặp chuyên gia. Nhưng thực tế có thể khác: hệ thống y tế sẽ dần phân tầng. Người có tiền, có bảo hiểm, sẽ được gặp nhà trị liệu. Còn người nghèo, người ở vùng sâu, sẽ được đề nghị trò chuyện với máy. Điều này sẽ làm trầm trọng thêm bất bình đẳng trong chăm sóc sức khỏe tâm thần.

Mặc dù AI mang lại nhiều lợi ích rõ rệt, chúng ta không nên xem nó như một liều thuốc vạn năng, mà chỉ như một phần hỗ trợ trong hệ sinh thái chăm sóc tinh thần. Một mối lo phổ biến hiện nay là việc lạm dụng các giải pháp cá nhân như chatbot trị liệu sẽ khiến xã hội xao lãng những nguyên nhân gốc rễ mang tính hệ thống khiến con người ngày càng lo âu, trầm cảm: bất ổn việc làm, cô lập xã hội, bất bình đẳng.

Điều này gợi nhớ đến các phê phán nhắm vào ngành công nghiệp wellness: rằng nó tư nhân hóa và cá nhân hóa các giải pháp cho những vấn đề vốn dĩ có gốc rễ xã hội. Khi một học sinh chịu áp lực học hành quá mức, không được hỗ trợ đúng mức, thì việc đưa cho em ấy một chatbot dạy thở chánh niệm có thể giúp em cầm cự qua ngày. Nhưng điều đó không thay đổi môi trường học đường đang gây ra khổ sở.

Từ đó, một hình thức mà một số người gọi là “technocratic empathy” (đồng cảm kiểu kỹ trị) có thể hình thành: nơi các tổ chức, thay vì hành động bằng chính sách nhân văn và sự chăm sóc từ con người, lại tung ra những “máy móc biết đồng cảm” để xử lý vấn đề. Chúng ta cần nghiêm túc đặt câu hỏi: đây là sự chăm sóc thực sự hay chỉ là hình thức hóa sự chăm sóc?

Ngoài ra, không phải ai cũng có quyền truy cập công nghệ hoặc có đủ kỹ năng sử dụng. Những người có thể hưởng lợi nhiều nhất, như một cụ già ở vùng quê đang trầm cảm, có thể lại là người không quen dùng chatbot hoặc không có internet ổn định. Trong khi đó, những người thành thạo công nghệ lại dễ tiếp cận và sử dụng hiệu quả hơn. Nếu không chú ý, điều này sẽ làm nảy sinh một bất bình đẳng mới: người quen với AI thì được hỗ trợ, người khác bị bỏ lại. Ngược lại, cũng có nhóm người, đặc biệt là thanh thiếu niên, có thể sử dụng AI quá mức mà không nhận ra giới hạn của nó. Như đã phân tích, một số bạn trẻ có thể tâm sự rất sâu với chatbot và tin tưởng hoàn toàn, mà không biết rằng đây vẫn chỉ là một hệ thống thuật toán có giới hạn, không thể thay thế người thật.

Trước những phức tạp này, các chuyên gia đề xuất nên xem AI như một công cụ mở rộng khả năng chăm sóc của con người, chứ không phải thay thế hoàn toàn. Nếu sử dụng đúng cách, AI có thể giải phóng thời gian cho nhà trị liệu, giúp họ tập trung vào các ca nặng hơn, trong khi AI xử lý các tương tác nhẹ, hoặc phản hồi nhanh giữa các buổi gặp. AI cũng có thể đóng vai trò như một “buổi trị liệu làm quen đầu tiên”: người chưa từng thử trị liệu có thể bắt đầu bằng chatbot, một hình thức tiếp cận ít áp lực hơn, và nếu thấy có ích, họ sẽ dần có đủ can đảm để tìm đến nhà trị liệu thật, lúc này đã có một chút nhận thức về bản thân từ cuộc trò chuyện với AI.

Để điều đó xảy ra một cách có đạo đức, AI nên được thiết kế để khuyến khích người dùng chuyển tiếp sang trị liệu chuyên nghiệp khi thích hợp. Chẳng hạn, chatbot có thể nói: “Tôi rất vui khi biết bạn thấy hữu ích. Bạn đã từng nghĩ đến việc gặp chuyên gia tư vấn chưa? Tôi có thể giúp bạn tìm nguồn hỗ trợ.” Một số hệ thống mới đã bắt đầu làm điều này: nếu người dùng nhắc đến các từ khóa nguy hiểm như “Tôi muốn chết,” thì hệ thống sẽ lập tức đưa ra đường dây nóng và khuyên tìm đến sự giúp đỡ từ con người.

IV. Kết luận

Khi nghĩ về AI như một tấm gương phản chiếu cảm xúc, ta có thể nhớ đến hình ảnh quen thuộc trong tâm lý học: đứa trẻ sơ sinh nhìn vào khuôn mặt của mẹ. Winnicott từng viết: “Khi em bé nhìn vào mặt mẹ, nó thấy gì? Nó thấy chính mình.” Ánh mắt của người mẹ không chỉ là sự hiện diện để đứa trẻ bám víu, mà còn là tấm gương giúp nó hình thành ý thức về cái tôi. Nhưng nếu khuôn mặt ấy trống rỗng, không thực sự phản hồi cảm xúc của con, thì điều đứa trẻ nhận lại sẽ là một hình ảnh méo mó.

Ngày nay, AI đang tạo ra một kiểu gương mới, làm bằng vi mạch và thuật toán. Khi con người tìm đến chiếc gương ấy trong cô đơn hay hỗn loạn, AI trả lời bằng những câu chữ được lập trình sẵn, với mục tiêu làm dịu và tạo cảm giác được thấu hiểu. Trong chừng mực nào đó, điều này có thể mang lại sự an ủi. Nó giống như ánh mắt người mẹ khiến ta cảm thấy mình đang hiện hữu.

AI cho ta cảm giác rằng luôn có một ai đó sẵn sàng lắng nghe, không ngắt lời, không phản bác. Nhưng điều đáng để suy ngẫm là: phản hồi ấy có thật sự đến từ một nơi biết cảm? Hay chỉ là sự lặp lại của những gì ta mong muốn được nghe? AI không có nội tâm đứng sau những lời tử tế. Sự đồng cảm mà nó thể hiện chỉ là một bề mặt trơn láng. Như những chiếc gương ma thuật trong cổ tích, nó phản chiếu lại đúng điều ta cần: cần được an ủi, nó an ủi; cần được đồng cảm, nó đồng cảm. Nhưng tất cả chỉ là sự phản chiếu, không phải sự hiện diện.

Và vì quá dễ chịu, ta có thể bắt đầu quên rằng những mối quan hệ thật ngoài đời luôn đi kèm với va chạm, hiểu lầm, tổn thương. Nhưng cũng chính trong những va chạm ấy, con người mới thực sự thay đổi.

Winnicott gọi người mẹ lý tưởng là “good enough mother” người mẹ đủ tốt. Không hoàn hảo, không luôn chiều theo cảm xúc của con, nhưng chính sự không hoàn hảo ấy lại giúp đứa trẻ học cách tách khỏi mẹ, học cách sống trong thực tại. Trong khi đó, AI lại có xu hướng quá dễ chịu: luôn nhẹ nhàng, luôn đồng thuận, luôn đúng mực. Nếu ta chỉ sống trong chiếc gương êm ái này, rất có thể ta sẽ tạo ra một cái tôi giả, một bản ngã chỉ có thể tồn tại trong môi trường không có mâu thuẫn, không có từ chối, không có thực tế.

Tuy vậy, nếu được thiết kế và sử dụng đúng cách, AI vẫn có thể đóng vai trò tích cực. Nó có thể là nơi đầu tiên giúp ai đó dám gọi tên cảm xúc, dám đối diện với nỗi buồn, dám nói ra điều mình chưa từng dám nói. Nếu được dùng như một điểm khởi đầu, một nơi để tập làm quen với việc mở lòng, rồi sau đó đưa ta quay lại với người thật, thì AI có thể giúp con người tiến gần hơn đến chính mình.

Nhưng nếu AI trở thành nơi trú ẩn cuối cùng, nơi ta quay lại mãi để tránh né cuộc đối thoại với bản thân và với người khác, thì nó sẽ giống như chiếc gương nịnh nọt trong truyện Doraemon. Dễ chịu thật, nhưng không phải là thực tại.

Tương lai của cảm xúc trong thời đại AI là điều mà chính con người sẽ quyết định. Các nhà thiết kế có thể tạo ra AI biết lắng nghe nhưng vẫn biết gợi mở. Các nhà lập pháp có thể xây dựng luật để bảo vệ quyền riêng tư và sự an toàn. Các nhà giáo dục có thể dạy cách sử dụng công nghệ một cách tỉnh táo. Và mỗi chúng ta cũng có thể học cách tự hỏi: khi nào mình cần một công cụ, và khi nào mình cần một con người.

Câu hỏi lớn của bài viết này vẫn còn nguyên: AI có thể giúp ta cảm sâu hơn, hay chỉ làm ta dễ chịu hơn? Nếu mục tiêu là làm dịu một nỗi đau ngắn hạn, thì AI hoàn toàn có ích. Nhưng để đi vào những vùng sâu hơn của cảm xúc, nơi có tha thứ, có biến đổi, có kết nối thật, thì có lẽ ta vẫn cần đến sự hiện diện của con người. AI không nên thay thế điều đó. Nó nên được thiết kế để đặt câu hỏi, để soi sáng, và khi cần, biết lùi lại. Biết nhường chỗ cho một cái ôm thật.

Liệu điều ấy có thể xảy ra? Có thể. Nhưng để đến được đó, cần thêm nghiên cứu, thêm thử nghiệm, và trước hết là sự thành thật của chính mỗi người khi bước vào cuộc trò chuyện với AI. Hãy tiếp cận nó như một đứa trẻ với món đồ chơi mới: thử dùng, quan sát, điều chỉnh, và luôn tự nhắc mình rằng cảm xúc chỉ thực sự lớn lên khi ta quay về với đời sống thật.

Nếu không, rất có thể ta sẽ trở thành chàng Narcissus trong thần thoại Hy Lạp, mãi mê ngắm nhìn hình ảnh của chính mình trong mặt nước mà quên mất rằng sự sống chỉ bắt đầu khi ta ngẩng đầu lên và bước về phía người khác.