Vì sao mô hình ngôn ngữ lớn lại bịa chuyện? Nghiên cứu mới hé mở bí mật.

**Phần Giới thiệu**

Bài viết này thảo luận về hiện tượng mô hình ngôn ngữ lớn (LLM) như Claude đôi khi bị lỗi, trả lời sai lệch thông tin thay vì nói “Tôi không biết”.

**Nội dung chi tiết**

Mô hình ngôn ngữ lớn như Claude có thể bị lỗi “neuron thực thể đã biết”, dẫn đến việc bỏ qua cơ chế “không trả lời”. Đây là một trong những điều gây khó chịu nhất khi sử dụng LLM, đó là việc chúng thường xuyên bịa đặt thông tin, đưa ra câu trả lời không có trong dữ liệu huấn luyện. Từ góc độ con người, việc LLM không thể đơn giản trả lời “Tôi không biết” mà lại bịa ra những câu trả lời nghe có vẻ hợp lý là điều khó hiểu.

**Kết bài**

Khả năng bịa đặt thông tin là một hạn chế đáng kể của LLM hiện nay, cần được cải thiện để nâng cao độ tin cậy và hiệu quả sử dụng.

**Từ khóa**

Mô hình ngôn ngữ lớn, LLM, Claude, bịa đặt thông tin, hallucinating, confabulation, không trả lời, neuron, dữ liệu huấn luyện, AI, trí tuệ nhân tạo

Nguồn: https://arstechnica.com/ai/2025/03/why-do-llms-make-stuff-up-new-research-peers-under-the-hood/

Optimized by Optimole