Một nghiên cứu mới đây của nhóm chuyên gia trí tuệ nhân tạo (AI) tại Đại học Bách khoa Valencia, Tây Ban Nha, đã phát hiện một xu hướng đáng chú ý: khi các mô hình ngôn ngữ lớn (LLM) ngày càng phát triển mạnh mẽ và tinh vi, chúng lại ít thừa nhận hơn rằng mình không có đáp án chính xác.

Trong nghiên cứu được đăng trên tạp chí Nature, nhóm nghiên cứu đã đánh giá ba mô hình ngôn ngữ nổi tiếng là BLOOM, LLaMA và GPT qua nhiều phiên bản, so sánh khả năng trả lời đúng, cũng như mức độ dễ dàng phát hiện câu trả lời sai của chúng. Các chủ đề bao quát từ toán học, khoa học, câu đố chữ đến địa lý, cùng các yêu cầu tạo văn bản và sắp xếp danh sách.
Kết quả cho thấy, dù độ chính xác của các chatbot này có tăng dần qua các phiên bản, nhưng ở những câu hỏi khó, chúng lại có xu hướng đoán mò hơn là thừa nhận không biết. Nếu như trong các phiên bản trước, LLM sẽ chủ động thông báo với người dùng khi không có câu trả lời phù hợp, thì các phiên bản mới lại cố gắng đưa ra câu trả lời bất chấp khả năng sai sót, thậm chí với các câu hỏi dễ. Điều này làm giảm đi sự minh bạch, tạo cảm giác AI có phần “giấu dốt.”
Xu hướng này đặt ra một nghịch lý trong phát triển trí tuệ nhân tạo: các mô hình càng lớn và thông minh thì lại càng ít cởi mở về những hạn chế của mình. Điều này đồng nghĩa với việc người dùng phải cẩn trọng hơn, và các nhà phát triển cần tìm cách cải thiện không chỉ độ chính xác mà còn cả khả năng “tự nhận thức” của các mô hình.