213
/
179831
AI cũng mắc sai lầm phi lý và thiên vị như con người
ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi
news

AI cũng mắc sai lầm phi lý và thiên vị như con người

Thứ 2, 05/05/2025 | 14:27:49
2,011 lượt xem

Dù hoạt động trên nền tảng thuật toán và dữ liệu khổng lồ, các hệ thống trí tuệ nhân tạo (AI) như ChatGPT vẫn dễ rơi vào những sai lệch nhận thức phổ biến ở con người, đó là sự tự tin thái quá và thiên vị.

AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người - Ảnh: AI

Nghiên cứu mới công bố trên tạp chí Manufacturing & Service Operations Management do các nhà khoa học tại năm trường đại học ở Canada và Úc thực hiện, đánh giá hành vi của ChatGPT (cụ thể là hai mô hình GPT-3.5 và GPT-4 của OpenAI) trên 18 thiên kiến nhận thức nổi bật thường gặp trong tâm lý học con người như: thiên kiến xác nhận, hiệu ứng sở hữu, ngụy biện chi phí chìm, tâm lý thích chắc chắn...

Kết quả cho thấy, trong gần một nửa các tình huống được kiểm tra, ChatGPT hành xử y hệt con người khi đối mặt với các lựa chọn phi lý hoặc cảm tính, bất chấp việc hệ thống này nổi tiếng với khả năng suy luận logic nhất quán.

AI có thật sự "vô tư" như kỳ vọng?

Tiến sĩ Yang Chen, phó giáo sư quản trị vận hành tại Trường Kinh doanh Ivey (Canada) và là tác giả chính của nghiên cứu, nhận định: "AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người".

Nhóm nghiên cứu đã đưa vào ChatGPT các tình huống giả định quen thuộc trong tâm lý học, lồng ghép thêm ngữ cảnh thực tiễn như quản lý tồn kho hay đàm phán với nhà cung cấp. 

Điều đáng chú ý là các mô hình AI vẫn thể hiện thiên kiến nhận thức ngay cả khi bối cảnh câu hỏi được chuyển đổi từ trừu tượng sang thực tế kinh doanh.

GPT-4 thông minh hơn, nhưng không hề hoàn hảo

GPT-4 là phiên bản nâng cấp của GPT-3.5 tỏ ra vượt trội khi giải quyết các bài toán logic hoặc xác suất. Tuy nhiên trong các mô phỏng mang tính chủ quan, ví dụ như lựa chọn phương án rủi ro để gia tăng lợi nhuận, GPT-4 lại thể hiện thiên hướng hành xử cảm tính hơn cả con người.

Đặc biệt, nghiên cứu ghi nhận GPT-4 luôn đưa ra phản hồi thiên lệch trong các tình huống kiểm tra thiên kiến xác nhận, và dễ rơi vào "ảo giác chuỗi thắng" (hot-hand fallacy), tức xu hướng tin rằng sự kiện ngẫu nhiên sẽ lặp lại theo chuỗi, rõ rệt hơn GPT-3.5.

Ngược lại, AI có khả năng tránh được một số sai lệch mà con người thường mắc phải, chẳng hạn như bỏ qua sai lầm tỉ lệ cơ sở (base-rate neglect) hay ngụy biện chi phí chìm (sunk cost fallacy).

Nguyên nhân khiến ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta - Ảnh: AI

Nguồn gốc của thiên kiến AI: Từ chính dữ liệu của con người

Theo nhóm nghiên cứu, nguyên nhân ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta. Việc AI được tinh chỉnh dựa trên phản hồi của con người lại càng củng cố xu hướng này, khi mô hình được "thưởng" cho những phản hồi có vẻ hợp lý, thay vì hoàn toàn chính xác.

"Muốn có kết quả chuẩn xác và không thiên lệch, hãy dùng AI cho các nhiệm vụ mà bạn vốn dĩ tin tưởng một chiếc máy tính có thể làm tốt", tiến sĩ Chen khuyến nghị. "Còn nếu phải xử lý các vấn đề mang tính chiến lược hoặc cảm tính, con người vẫn cần giám sát và can thiệp, thậm chí chỉ đơn giản bằng cách viết lại câu hỏi".

Đồng tác giả Meena Andiappan, phó giáo sư ngành nhân sự và quản trị tại Đại học McMaster (Canada), cho rằng: "AI nên được xem như một nhân viên có quyền ra quyết định quan trọng, nghĩa là cần được giám sát và tuân theo nguyên tắc đạo đức. Nếu không, chúng ta đang vô tình tự động hóa lối tư duy sai lệch thay vì cải thiện nó".

Theo Minh Hải/ Tuổi Trẻ

https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm

  • Từ khóa

Dùng AI cho đồ án tốt nghiệp, đừng quên những điều này

Trong bối cảnh công nghệ trí tuệ nhân tạo (AI) bùng nổ và len lỏi vào mọi khía cạnh của đời sống, việc sinh viên 'nhờ' AI hỗ trợ làm đồ án tốt nghiệp trở...
20:02 - 15/06/2025
175 lượt xem

Vinaphone gặp sự cố liên lạc trên diện rộng

Cuối buổi sáng nay 14-6, hàng loạt thuê bao của Vinaphone bị gián đoạn liên lạc tại nhiều tỉnh, thành phố.
07:52 - 15/06/2025
466 lượt xem

Khi Gen Z dùng công nghệ lập trình nhịp sống số

Gen Z không chỉ tiếp cận công nghệ mà còn thiết lập cách sống số của họ. Từ AI đến no-code, thế hệ này đang tạo ra những hệ sinh thái cá nhân tự động...
18:11 - 14/06/2025
824 lượt xem

Anker thu hồi hơn 1 triệu sạc dự phòng vì nguy cơ cháy nổ

Anker đang thông báo thu hồi khẩn cấp hơn 1 triệu sạc dự phòng vì nguy cơ cháy nổ.
15:33 - 14/06/2025
813 lượt xem

Tài sản số được quy định thế nào trong luật vừa được Quốc hội thông qua?

Quốc hội giao Chính phủ quy định chi tiết các nội dung liên quan đến tài sản số để phù hợp với thực tiễn, yêu cầu quản lý trong các ngành, lĩnh vực.
13:27 - 14/06/2025
800 lượt xem