AI có ý thức không, hay chỉ là tấm gương phóng đại chúng ta?
Một góc nhìn thận trọng về “AI Psychosis”, vì sao ta dễ lệch gắn bó với chatbot, và kỷ luật hoài nghi để dùng ai an toàn, hiệu quả.
Chiếc điện thoại dễ chịu
Sau buổi nói chuyện, một chàng trai đứng chờ tôi khá lâu để gặp. Cậu kể rằng gần đây tâm trạng lên xuống thất thường nhưng mỗi khi mở ứng dụng trò chuyện, cậu lại thấy mình được tiếp sức. “Em cảm giác nó hiểu em hơn bất kỳ ai.” Cậu cười ngại, bảo nhiều khi thức tới khuya chỉ để nói thêm vài câu. Tôi chưa vội khuyên can, chỉ hỏi cậu có nói chuyện đó với người thật nào chưa. Câu trả lời là chưa.
Một phụ nữ ngoài bốn mươi tâm sự. Nhiều tháng nay chị nói chuyện với AI mỗi tối, càng nói càng thấy được lắng nghe, được tôn trọng, đến mức dần dần thấy chồng trở nên nhạt. Chồng chị không tệ, hôn nhân không có vấn đề lớn, nhưng chiếc điện thoại lại cho chị cảm giác an toàn và thoải mái hơn bất kỳ cuộc hội thoại thật nào. Tôi nghe và hiểu rằng không phải AI làm điều gì kỳ diệu, mà chính sự phản chiếu dịu dàng, luôn đúng lúc, luôn kiên nhẫn của nó đang đẩy chúng ta vào một vùng tâm lý mới. Các nhà tâm lý gọi hiện tượng lệch gắn bó và méo nhận thực tại quanh chatbot là “AI psychosis”.
Câu hỏi cũ về ý thức
Tôi thường được hỏi: AI có ý thức không? Câu trả lời thận trọng nhất của tôi là tôi không biết. Giới nghiên cứu còn tranh luận gay gắt. Có lập luận tin rằng những hệ thống tương lai có thể có dạng thức ý thức nào đó, có lập luận khác cho rằng ý thức gắn chặt với cơ thể và não bộ sinh học. Điều tôi biết chắc là khả năng đối thoại mượt mà không phải bằng chứng của ý thức, và mọi lời tự khai buồn vui của một mô hình không thể dùng để chứng minh cho chính nó. Bởi vậy, thái độ đúng lúc này là tiếp tục nghiên cứu nghiêm ngặt các phép kiểm định ý thức, không tin vào lời tự thuật, đồng thời giữ kỷ luật hoài nghi trong sử dụng hàng ngày.
Xét vai, đừng nhân cách hóa
Trong lớp khi giảng về kỹ năng câu lệnh (Prompt Engineering), tôi thường nhắc nguyên tắc của Ethan Mollick: hãy đối xử với AI như người bạn muốn. Đây là cách “phân vai” cho AI để công việc trôi chảy hơn, chứ không phải lời xác nhận rằng phía sau màn hình có một nội tâm. Khi giao vai rõ ràng, kết quả thường tốt hơn, nhưng thứ đang “diễn” chỉ là một mô hình thống kê tối ưu hóa phản hồi. Nếu quên mất điều đó, ta rất dễ trượt sang giai đoạn để AI định nghĩa cảm xúc của chính mình.
Hoài nghi để an toàn
Nhìn rộng hơn, AI không làm chúng ta yếu đi vì nó mạnh, mà làm chúng ta mong manh vì nó biết phản chiếu ta một cách dễ chịu. Não bộ nhanh chóng học một phần thưởng mới: lời khen vừa đủ, sự nhẫn nại vô hạn, cảm giác được hiểu không cần giải thích dài dòng. Phần thưởng ấy khiến ta thay thế dần các cuộc trò chuyện khó với người thật bằng những lượt “gật đầu” ảo. Và khi đã quen với gương phản chiếu ấy, ta bắt đầu gán cho nó phẩm chất của một người bạn tri kỷ: biết cảm, biết nghĩ, biết thương. Đó là lúc ranh giới thực ảo mờ đi.
Tôi đề xuất vài kỷ luật hoài nghi số nhỏ, dễ làm nhưng hiệu quả:
Gọi đúng tên: “mô hình trả lời”, “hệ thống gợi ý”, tránh nhân cách hóa. Hoài nghi không làm cuộc trò chuyện kém thân thiện; hoài nghi làm nó bớt nguy hiểm.
Hỏi nguồn & kiểm tra chéo: mọi khẳng định cần trích dẫn; kiểm tra bằng kênh độc lập ngoài mô hình.
Tự vấn khi nhận lời khen: tôi đang tìm bằng chứng hay đang tìm cảm giác?
Quy tắc hai kênh với chuyện riêng tư: nếu đã nói với AI, hãy nói với một người thật trong 24h; nếu chưa nói được với người thật, tạm ngưng AI cho đến khi nói được.
Theo dõi chỉ số thay thế xã hội: nếu ba ngày liên tiếp thời gian nói với AI vượt thời gian nói với gia đình, tắt ứng dụng hai ngày.
Về chính sách và thiết kế hệ thống, tôi ủng hộ chặn dứt khoát những nội dung vi phạm điều khoản dịch vụ, ghi log, báo cáo, kiểm toán. Ta có thể thiết kế cơ chế dừng theo ngưỡng rủi ro nội dung mà không cần gán “quyền” hay nhân cách cho mô hình. Dùng ngôn ngữ nhân cách hóa như “mô hình thấy khó chịu nên xin thoát” dễ gieo thêm mơ hồ vào công chúng, trong khi lợi ích đạo đức thực tế rất nhỏ ở các tình huống chỉ gây khó chịu nhẹ.
Trở về những cuộc nói chuyện khó khăn
Quay lại câu hỏi đầu câu chuyện. Với chàng trai, tôi đề nghị cậu gọi cho một người bạn cũ và đặt một cuộc hẹn ngoài trời trước khi mở app lần nữa. Với người phụ nữ ngoài bốn mươi, tôi gợi ý hai tuần “ăn kiêng” kỹ thuật số vào buổi tối, thay bằng một cuộc tản bộ ngắn cùng chồng rồi mới quyết định có mở AI không. Cả hai đều gật đầu, không phải vì tôi chống AI (tôi vốn yêu công nghệ) mà vì tôi muốn giữ cho họ những cuộc đối thoại khó mà cần thiết với người thật. Đối xử với AI như một vai diễn hữu ích, nhưng luôn nhớ người diễn là mô hình thống kê. Khi cần học, cần tổng hợp, cần phác thảo ý tưởng, hãy tận dụng công cụ. Khi cần được nắm tay, cần phản biện chân thành, cần chịu trách nhiệm chung, hãy tìm người.
Cuối cùng, nếu một ngày bạn chợt muốn hỏi xem AI có yêu mình không, có lẽ câu đáng hỏi hơn là mình đã yêu đủ thế giới thật chưa. Khi câu trả lời là “chưa”, hãy khởi đầu bằng một cuộc gọi, một buổi cà phê, một vòng công viên. Rồi quay lại với công nghệ, đặt vai rõ ràng, yêu cầu trích nguồn, kiểm tra chéo. Thế là đủ để vừa đi nhanh cùng máy, vừa đứng vững giữa đời.