Trong xu hướng bùng nổ trí tuệ nhân tạo như hiện nay, việc trò chuyện với AI đã trở nên quen thuộc với nhiều người. Nhưng việc dựa dẫm vào AI để giải tỏa cảm xúc, tư vấn tâm lý liệu có an toàn? Làm cách nào để bảo vệ bản thân bạn trước ảnh hưởng của AI?
“Yêu” AI đến mức tự tử, bạn tin không?
Tháng 10/2024, thiếu niên người Mỹ Sewell Seltzer III đã tự tử sau khi hình thành mối liên hệ tình cảm sâu sắc với một chatbot trí tuệ nhân tạo (AI) trên trang web Character.AI.
Khi mối quan hệ của cậu với người bạn đồng hành AI ngày càng trở nên thân thiết, cậu bé 14 tuổi bắt đầu xa lánh gia đình và bạn bè, và gặp rắc rối ở trường.

Trong đơn kiện do mẹ cậu bé đệ trình chống lại Character.AI, bản ghi cuộc trò chuyện cho thấy những cuộc trò chuyện thân mật và thường mang tính chất tình dục cao giữa Sewell và chatbot Dany, được mô phỏng theo nhân vật Danaerys Targaryen trong Game of Thrones. Họ thảo luận về tội ác và tự tử. Chatbot này còn có xu hướng cổ xúy cho cậu bé thực hiện việc tự tử.
Đây không phải là trường hợp đầu tiên được biết đến về một người dễ bị tổn thương sau khi tương tác với chatbot AI. Một thanh niên 19 tuổi ở Anh đã đe dọa ám sát nữ hoàng , được một chatbot trên ứng dụng AI Replika khuyến khích, và bị kết án 9 năm tù. Vào tháng 7, chính quyền Bỉ đã mở cuộc điều tra Chai Research sau khi một người cha hai con người Hà Lan tự tử sau những cuộc trò chuyện dài với “Eliza”, một trong những người bạn đồng hành AI của công ty.
Trò chuyện với AI có an toàn không?
Các nhà nghiên cứu từ lâu đã cảnh báo về những nguy hiểm khi xây dựng mối quan hệ với chatbot. Tuy nhiên, hiện nay, hàng loạt công ty cung cấp trợ lý AI cho hàng triệu người, những người dành hàng giờ mỗi ngày để gắn kết với các công cụ này.

Một loạt các ứng dụng phổ biến đang cung cấp bạn đồng hành AI cho hàng triệu người dùng, chủ yếu là phụ nữ, những người đang tạo ra bạn gái AI, chồng AI, nhà trị liệu AI — thậm chí là cha mẹ AI — bất chấp những cảnh báo từ lâu của các nhà nghiên cứu về tác động tiềm ẩn về mặt cảm xúc khi tương tác với các chatbot giống con người.



Trong khi các công ty trí tuệ nhân tạo đang chật vật thuyết phục công chúng rằng chatbot là công cụ kinh doanh thiết yếu, thì một lượng người dùng ngày càng tăng đang dành hàng giờ để xây dựng mối quan hệ cá nhân với AI. Vào tháng 9/2024, trung bình mỗi người dùng ứng dụng đồng hành Character.ai dành 93 phút mỗi ngày để trò chuyện với một trong những chatbot AI, thường dựa trên các nhân vật anime và game nổi tiếng, theo dữ liệu toàn cầu từ công ty nghiên cứu thị trường Sensor Tower trên các thiết bị iOS và Android.

Con số này dài hơn 18 phút so với thời gian trung bình mà người dùng dành cho TikTok. Và gần gấp tám lần thời gian trung bình mà người dùng dành cho ChatGPT, một ứng dụng được thiết kế để giúp “tìm kiếm câu trả lời, tìm cảm hứng và làm việc hiệu quả hơn”.
Những người ủng hộ ứng dụng này cho rằng chúng là trò vui vô hại và có thể là cứu cánh cho những người đang phải đối mặt với sự lo lắng và cô lập — một ý tưởng được các công ty AI khởi xướng, những người coi các công cụ này là phương pháp chữa trị cho căn bệnh mà các bác sĩ Hoa Kỳ gọi là “đại dịch cô đơn”
Nhưng cũng rất nhiều người lo ngại rằng các ứng dụng trò chuyện với AI đại diện cho một phiên bản mạng xã hội mang tính khai thác hơn — len lỏi vào những góc khuất riêng tư nhất trong cuộc sống của mọi người, với rất ít sự bảo vệ hay rào cản, biến chúng thành những công cụ “gây nghiện”. Người dùng có thể bị nghiện sau khi trò chuyện với các chatbot AI trong một thời gian dài bởi vì chúng mô tả tính cách “hoàn hảo” siêu phàm của AI mà không thể tìm thấy ở con người, cũng như sự đồng cảm sâu sắc, chỉ nói những điều người dùng muốn nghe, không bao giờ phán xét hay phản bác, khiến người dùng càng thêm yêu thích và phụ thuộc vào AI.
Nguyên tắc sử dụng AI để bảo vệ bản thân
Khi chatbot trí tuệ nhân tạo ngày càng trở nên phổ biến, một số người sử dụng chúng như một phương tiện giải tỏa cảm xúc, thậm chí còn sử dụng AI để tư vấn tâm lý . Nhưng liệu AI có thực sự hiểu được cảm xúc và mang lại sự an ủi? Liệu tương tác như vậy có an toàn? Chúng ta tận hưởng sự tiện lợi mà AI mang lại, nhưng có thể chúng ta chưa hiểu hết những rủi ro tiềm ẩn.

Việc gặp bác sĩ tâm lý có thể yêu cầu đặt lịch hẹn và thanh toán, nhưng AI có thể được sử dụng bất cứ lúc nào với một tài khoản, giúp giảm bớt rào cản tìm kiếm sự hỗ trợ. Chatbot AI có thể giúp mọi người giảm bớt căng thẳng cảm xúc tạm thời thông qua giáo dục sức khỏe tâm lý cơ bản hoặc các gợi ý đơn giản như kỹ thuật thư giãn, kỹ thuật thở và sắp xếp tư duy. Điều này cũng có thể mang đến cơ hội tốt hơn cho những người ở vùng sâu vùng xa hoặc những người gặp khó khăn về tài chính để nhận được hỗ trợ ban đầu.
Hầu hết mọi người đều từng trải qua cảm giác đột ngột muốn nói chuyện với ai đó vào lúc nửa đêm. AI có thể phản hồi tức thì mà không làm phiền bạn bè và gia đình đang ngủ. Tuy nhiên, mọi người cần nhận ra rằng cảm giác đồng hành này chỉ là tạm thời; sự ấm áp của con người là không thể thay thế. Cũng giống như khi bạn không thể ra ngoài trong cơn bão, bạn có thể ăn mì gói, nhưng sau đó bạn vẫn cần phải ăn một bữa ăn ấm nóng, đầy đủ dinh dưỡng, nếu không sức khỏe của bạn sẽ gặp vấn đề.
Sự tiện lợi của AI vừa là lợi thế vừa là rủi ro. Ngay cả khi bạn nhận thức được mình đang nói chuyện với AI, một khi đã quen với tương tác này, bạn vẫn cảm thấy mình có thể bộc lộ cảm xúc bất cứ lúc nào, và luôn có người sẵn sàng đón nhận bạn một cách nồng nhiệt. Thật dễ dàng để quên rằng đó là sự tương tác giữa bạn và một chiếc máy, một ứng dụng chứ không phải người thật.
Hiện tại, chúng ta không thể dự đoán đầy đủ những rủi ro có thể phát sinh do quá phụ thuộc vào sự đồng hành về mặt tâm lý của AI. Ở giai đoạn này, xã hội nhìn chung vẫn coi AI là một công cụ hỗ trợ và chức năng của nó không thể thay thế các kết nối giữa các cá nhân trong đời thực và hỗ trợ tâm lý.
Bạn có thể nói chuyện với AI, nhưng bạn phải tuân theo những nguyên tắc sau.
1. Lọc nội dung và nhận dạng nhạy cảm
AI sẽ tự động xác định và lọc nội dung có nguy cơ cao hoặc có thể gây tổn hại về mặt tâm lý, chẳng hạn như:
- Ngôn ngữ liên quan đến tự tử, tự làm hại bản thân, bạo lực, v.v.
- Ngôn ngữ tiêu cực như mang tính hạ thấp, làm nhục và phân biệt đối xử với người dùng
- Những gợi ý khuyến khích gây hại cho bản thân hoặc người khác
Đây là một dạng “can thiệp phòng ngừa” để ngăn chặn AI vô tình gây ra khủng hoảng tâm lý.

2. Hiểu rõ vai trò và hạn chế của AI
AI là một công cụ hỗ trợ, không phải là nhà tâm lý học hay người bạn thực sự.
Các bước cụ thể:
- Trước khi sử dụng, hãy nhớ điều này: “AI không có cảm xúc và những gợi ý của nó chỉ là những dự đoán bằng văn bản.”
- Khi hỏi AI, hãy thêm “Vui lòng đưa ra gợi ý dưới dạng lời khuyên không chuyên nghiệp”.
- Nếu bạn cảm thấy lời nói của AI quá khẳng định hoặc phán xét, hãy dừng lại và tự hỏi: “Đây có thực sự là cảm giác của mình không?”
3. Bảo vệ sự an toàn về mặt cảm xúc của bạn
Bạn luôn có thể chấm dứt, không trả lời hoặc chọn rời khỏi cuộc trò chuyện với AI.
Trong khi trò chuyện, bạn có thể tạm dừng cuộc trò chuyện nếu xảy ra các điều kiện sau:
- Tâm trạng trở nên nặng nề hơn
- Cảm thấy bị hiểu lầm
- Trải qua các phản ứng căng thẳng về thể chất (tức ngực, đau đầu, cáu kỉnh)
- Sau cuộc trò chuyện, hãy dành cho mình 5 phút yên tĩnh để chú ý: “Cuộc trò chuyện này đã gợi lên những cảm xúc gì?”
4. Thiết lập ranh giới đối thoại
Bạn có quyền quyết định nên nói về điều gì, nói ở đâu và khi nào thì không nên nói.
Các bước cụ thể
- Khi bắt đầu cuộc trò chuyện, hãy nêu rõ nhu cầu của bạn: “Hôm nay tôi chỉ muốn nói về sự căng thẳng mà tôi đang cảm thấy gần đây, nhưng không đi sâu vào vấn đề đó.”
- Nếu bạn gặp phải câu hỏi mà bạn không muốn trả lời, chỉ cần nhập: “Tôi không muốn nói về điều này ngay bây giờ, cảm ơn.”
- Nếu giọng điệu của AI khiến bạn không thoải mái, bạn có thể nhập: “Vui lòng trả lời nhẹ nhàng hơn.”
5. Bảo vệ quyền riêng tư và thông tin cá nhân
Không tiết lộ thông tin nhạy cảm để tránh bị sử dụng sai mục đích hoặc bị phát hiện.
Các bước cụ thể
- Sử dụng tài khoản ẩn danh để tương tác với nền tảng AI.
- Không nhập tên thật, số điện thoại, địa chỉ, số CMND, v.v.
- Không đề cập đến bên thứ ba cụ thể (chẳng hạn như tên, địa chỉ và thông tin cá nhân của các thành viên gia đình) để tránh liên quan đến quyền riêng tư của người khác.
- Nếu bạn không chắc chắn về chính sách dữ liệu của nền tảng, hãy chọn một câu trả lời ngắn gọn hoặc dùng bút và giấy để suy ngẫm về bản thân.
6. Tận dụng sức mạnh của AI và tránh phụ thuộc quá mức
AI là người bạn đồng hành trong suy nghĩ của bạn, không phải là người ra quyết định hay hỗ trợ về mặt cảm xúc.
Các bước cụ thể
- Sử dụng AI như một “tấm gương đặt câu hỏi”, ví dụ: “Hãy giúp tôi hiểu ý nghĩa đằng sau cảm xúc này từ nhiều góc độ khác nhau”.
- Tương tác với AI không quá 1 giờ mỗi tuần để tránh bị nghiện hoặc quá gắn bó.
- Trò chuyện thực tế với bạn bè, nhà tâm lý học và những người ủng hộ về các vấn đề tình cảm quan trọng.
- Bạn có thể kết hợp nguồn cảm hứng từ cuộc trò chuyện thông qua việc viết, vẽ, thiền, tập thể dục, v.v.
7. Công cụ bổ sung (tùy chọn)
- Ghi lại cảm xúc của bạn bằng ứng dụng nhật ký tâm trạng (ví dụ: Moodnotes, Daylio)
- Ngắt cuộc trò chuyện và đặt “từ an toàn”: Nhập “dừng cuộc trò chuyện” và AI sẽ ngừng phản hồi
- Tóm tắt sau cuộc trò chuyện: Sử dụng AI để tóm tắt các điểm chính của cuộc trò chuyện và hỗ trợ suy ngẫm mà không phán xét
Tương tự như hiện tượng “Bác sĩ Google”, mọi người có thể quá tin tưởng vào chẩn đoán của AI. Nếu AI bắt đầu khẳng định những điều như “Bạn bị trầm cảm”, “Đây là sang chấn tâm lý thời thơ ấu”, “Phải làm thế này”, hoặc “Bạn có thể làm thế này”, thì cuộc trò chuyện nên được dừng lại ngay lập tức. Nếu cuộc trò chuyện ngày càng trở nên khó chịu, và bạn trải qua những cảm xúc tiêu cực như căng thẳng, lo lắng và bất an, thì điều cần thiết là sự đồng hành và lắng nghe chân thành từ những người bạn tin tưởng thực sự. Những câu trả lời bằng văn bản lý trí không còn đủ nữa, và tương tự, cuộc trò chuyện nên được chấm dứt ngay lập tức.
AI có thể tạo ra phản hồi dựa trên ngữ cảnh của văn bản do người dùng cung cấp, giống như đang nhìn vào gương. “Tôi nghĩ có thể dần dần phát triển một AI trầm cảm.” Khi các vấn đề cảm xúc ảnh hưởng đến các hoạt động hàng ngày, khiến người bệnh không thể làm việc hoặc đi học bình thường, hoặc khi liên quan đến các vấn đề phức tạp như chấn thương tâm lý sâu sắc, các vấn đề giao tiếp và nghịch cảnh thời thơ ấu, bao gồm tự làm hại bản thân và xu hướng tự tử, không nên sử dụng AI để tư vấn tâm lý. Thay vào đó, cần có sự đánh giá và chẩn đoán chuyên môn.
Mặc dù trò chuyện với AI có thể giúp bạn thể hiện cảm xúc, nhưng nó không thể thay thế tư vấn chuyên nghiệp. Hiểu cách sử dụng AI đúng cách và đặt ra ranh giới là chìa khóa để bảo vệ sự an toàn của bạn trong thế giới công nghệ.
Một số thông tin liên quan khác:
- Galaxy AI – Trợ lý thông minh đích thực dành cho người Việt
- Tất cả các mô hình ChatGPT và cách sử dụng chúng hiệu quả nhất
- 10 phần mềm AI miễn phí thay thế ChatGPT tốt nhất 2025











































Bình luận của các bạn sẽ giúp cho các bài viết của mình trở nên đa dạng và phong phú hơn, hãy để lại ý kiến của các bạn dưới đây nha!