05/05/2025 12:03 GMT+7
Trở lại chủ đề

AI cũng mắc sai lầm phi lý và thiên vị như con người

Dù hoạt động trên nền tảng thuật toán và dữ liệu khổng lồ, các hệ thống trí tuệ nhân tạo (AI) như ChatGPT vẫn dễ rơi vào những sai lệch nhận thức phổ biến ở con người, đó là sự tự tin thái quá và thiên vị.

AI - Ảnh 1.

AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người - Ảnh: AI

Nghiên cứu mới công bố trên tạp chí Manufacturing & Service Operations Management do các nhà khoa học tại năm trường đại học ở Canada và Úc thực hiện, đánh giá hành vi của ChatGPT (cụ thể là hai mô hình GPT-3.5 và GPT-4 của OpenAI) trên 18 thiên kiến nhận thức nổi bật thường gặp trong tâm lý học con người như: thiên kiến xác nhận, hiệu ứng sở hữu, ngụy biện chi phí chìm, tâm lý thích chắc chắn...

Kết quả cho thấy, trong gần một nửa các tình huống được kiểm tra, ChatGPT hành xử y hệt con người khi đối mặt với các lựa chọn phi lý hoặc cảm tính, bất chấp việc hệ thống này nổi tiếng với khả năng suy luận logic nhất quán.

AI có thật sự "vô tư" như kỳ vọng?

Tiến sĩ Yang Chen, phó giáo sư quản trị vận hành tại Trường Kinh doanh Ivey (Canada) và là tác giả chính của nghiên cứu, nhận định: "AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người".

Nhóm nghiên cứu đã đưa vào ChatGPT các tình huống giả định quen thuộc trong tâm lý học, lồng ghép thêm ngữ cảnh thực tiễn như quản lý tồn kho hay đàm phán với nhà cung cấp. 

Điều đáng chú ý là các mô hình AI vẫn thể hiện thiên kiến nhận thức ngay cả khi bối cảnh câu hỏi được chuyển đổi từ trừu tượng sang thực tế kinh doanh.

GPT-4 thông minh hơn, nhưng không hề hoàn hảo

GPT-4 là phiên bản nâng cấp của GPT-3.5 tỏ ra vượt trội khi giải quyết các bài toán logic hoặc xác suất. Tuy nhiên trong các mô phỏng mang tính chủ quan, ví dụ như lựa chọn phương án rủi ro để gia tăng lợi nhuận, GPT-4 lại thể hiện thiên hướng hành xử cảm tính hơn cả con người.

Đặc biệt, nghiên cứu ghi nhận GPT-4 luôn đưa ra phản hồi thiên lệch trong các tình huống kiểm tra thiên kiến xác nhận, và dễ rơi vào "ảo giác chuỗi thắng" (hot-hand fallacy), tức xu hướng tin rằng sự kiện ngẫu nhiên sẽ lặp lại theo chuỗi, rõ rệt hơn GPT-3.5.

Ngược lại, AI có khả năng tránh được một số sai lệch mà con người thường mắc phải, chẳng hạn như bỏ qua sai lầm tỉ lệ cơ sở (base-rate neglect) hay ngụy biện chi phí chìm (sunk cost fallacy).

AI - Ảnh 2.

Nguyên nhân khiến ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta - Ảnh: AI

Nguồn gốc của thiên kiến AI: Từ chính dữ liệu của con người

Theo nhóm nghiên cứu, nguyên nhân ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta. Việc AI được tinh chỉnh dựa trên phản hồi của con người lại càng củng cố xu hướng này, khi mô hình được "thưởng" cho những phản hồi có vẻ hợp lý, thay vì hoàn toàn chính xác.

"Muốn có kết quả chuẩn xác và không thiên lệch, hãy dùng AI cho các nhiệm vụ mà bạn vốn dĩ tin tưởng một chiếc máy tính có thể làm tốt", tiến sĩ Chen khuyến nghị. "Còn nếu phải xử lý các vấn đề mang tính chiến lược hoặc cảm tính, con người vẫn cần giám sát và can thiệp, thậm chí chỉ đơn giản bằng cách viết lại câu hỏi".

Đồng tác giả Meena Andiappan, phó giáo sư ngành nhân sự và quản trị tại Đại học McMaster (Canada), cho rằng: "AI nên được xem như một nhân viên có quyền ra quyết định quan trọng, nghĩa là cần được giám sát và tuân theo nguyên tắc đạo đức. Nếu không, chúng ta đang vô tình tự động hóa lối tư duy sai lệch thay vì cải thiện nó".

Công nghệ AI - vũ khí chống lừa đảo trực tuyến

Trước tình trạng lừa đảo trực tuyến ngày càng tinh vi, AI đang trở thành vũ khí đắc lực chống tội phạm mạng. Các chuyên gia đề xuất giải pháp tích hợp AI để nhận diện cuộc gọi lừa đảo và ngăn chặn rò rỉ dữ liệu cá nhân.

Bình luận hay

Chia sẻ

Tuổi Trẻ Online Newsletters

Đăng ký ngay để nhận gói tin tức mới

Tuổi Trẻ Online sẽ gởi đến bạn những tin tức nổi bật nhất

Bình luận (0)
Tối đa: 1500 ký tự

Tin cùng chuyên mục

Nga ra mắt ứng dụng nhập cảnh kỹ thuật số cho người nước ngoài

Ứng dụng ruID của Nga giúp đơn giản hóa thủ tục nhập cảnh miễn thị thực, thu thập dữ liệu sinh trắc học và tạo hồ sơ kỹ thuật số.

Nga ra mắt ứng dụng nhập cảnh kỹ thuật số cho người nước ngoài

Ngày càng nhiều thông tin sai, có nên tìm kiếm, hỏi AI?

Trong thời đại mà trí tuệ nhân tạo có thể trả lời mọi câu hỏi trong vài giây, nhiều người mặc định xem AI là nguồn kiến thức chính xác. Nhưng nếu thông tin đầu vào đã sai, AI liệu có thể tạo ra câu trả lời đúng?

Ngày càng nhiều thông tin sai, có nên tìm kiếm, hỏi AI?

Trong mắt thiết bị: Bạn là vân tay, khuôn mặt, một dãy mã số

Bạn là chính bạn, nhưng thiết bị chỉ tin điều đó khi vân tay, khuôn mặt hay mã số khớp hoàn hảo. Trong thế giới số, danh tính không còn là con người thật, mà là dữ liệu máy móc có chấp nhận hay không.

Trong mắt thiết bị: Bạn là vân tay, khuôn mặt, một dãy mã số

Google cùng Bộ Công an triển khai chiến dịch phòng, chống lừa đảo trực tuyến

Chiến dịch nhằm trang bị cho cộng đồng kiến thức hữu ích giúp nhận diện và tránh xa các hình thức lừa đảo trực tuyến tinh vi, củng cố nền tảng an toàn cần thiết cho người dân.

Google cùng Bộ Công an triển khai chiến dịch phòng, chống lừa đảo trực tuyến

Mỗi câu lệnh cho AI đều gây... ô nhiễm môi trường

Khi AI trở thành công cụ không thể thiếu trong cuộc sống hằng ngày, từ việc soạn email công việc đến viết hôn thú, điều quan trọng là chúng ta phải nhìn nhận và hiểu rõ những tác động sinh thái mà nó mang lại.

Mỗi câu lệnh cho AI đều gây... ô nhiễm môi trường

Sau hai ngày 'bay màu', loạt hội nhóm Facebook đã trở lại bình thường

Sau hai ngày 'chao đảo' vì sự cố kỹ thuật bị khóa và mất tên, hoạt động của các hội nhóm trên Facebook tại Việt Nam đã bình thường trở lại.

Sau hai ngày 'bay màu', loạt hội nhóm Facebook đã trở lại bình thường
Tất cả bình luận (0)
Ý kiến của bạn sẽ được biên tập trước khi đăng, xin vui lòng viết bằng tiếng Việt có dấu.
Được quan tâm nhất
Mới nhất
Hiện chưa có bình luận nào, hãy là người đâu tiên bình luận về bài viết.
Tối đa: 1500 ký tự
Avatar
Đăng ký bằng email
Khi bấm "Đăng ký" đồng thời bạn đã đồng ý với điều khoản của toà soạn Đăng ký
Đăng nhập
Thông tin bạn đọc Thông tin của bạn đọc sẽ được bảo mật an toàn và chỉ sử dụng trong trường hợp toà soạn cần thiết để liên lạc với bạn.
Gửi bình luận
Đóng
Hoàn thành
Đóng

Bình luận (0)
Tối đa: 1500 ký tự
Tất cả bình luận (0)
Ý kiến của bạn sẽ được biên tập trước khi đăng, xin vui lòng viết bằng tiếng Việt có dấu.
Được quan tâm nhất
Mới nhất
Hiện chưa có bình luận nào, hãy là người đâu tiên bình luận về bài viết.
Tối đa: 1500 ký tự
Avatar