05/05/2025 12:03 GMT+7
Trở lại chủ đề

AI cũng mắc sai lầm phi lý và thiên vị như con người

Dù hoạt động trên nền tảng thuật toán và dữ liệu khổng lồ, các hệ thống trí tuệ nhân tạo (AI) như ChatGPT vẫn dễ rơi vào những sai lệch nhận thức phổ biến ở con người, đó là sự tự tin thái quá và thiên vị.

AI - Ảnh 1.

AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người - Ảnh: AI

Nghiên cứu mới công bố trên tạp chí Manufacturing & Service Operations Management do các nhà khoa học tại năm trường đại học ở Canada và Úc thực hiện, đánh giá hành vi của ChatGPT (cụ thể là hai mô hình GPT-3.5 và GPT-4 của OpenAI) trên 18 thiên kiến nhận thức nổi bật thường gặp trong tâm lý học con người như: thiên kiến xác nhận, hiệu ứng sở hữu, ngụy biện chi phí chìm, tâm lý thích chắc chắn...

Kết quả cho thấy, trong gần một nửa các tình huống được kiểm tra, ChatGPT hành xử y hệt con người khi đối mặt với các lựa chọn phi lý hoặc cảm tính, bất chấp việc hệ thống này nổi tiếng với khả năng suy luận logic nhất quán.

AI có thật sự "vô tư" như kỳ vọng?

Tiến sĩ Yang Chen, phó giáo sư quản trị vận hành tại Trường Kinh doanh Ivey (Canada) và là tác giả chính của nghiên cứu, nhận định: "AI hoạt động tốt nhất khi được giao giải quyết các vấn đề có quy trình rõ ràng và công thức cố định. Nhưng khi xử lý các tình huống đòi hỏi phán đoán chủ quan hoặc liên quan đến sở thích cá nhân, AI có thể mắc sai lầm giống con người".

Nhóm nghiên cứu đã đưa vào ChatGPT các tình huống giả định quen thuộc trong tâm lý học, lồng ghép thêm ngữ cảnh thực tiễn như quản lý tồn kho hay đàm phán với nhà cung cấp. 

Điều đáng chú ý là các mô hình AI vẫn thể hiện thiên kiến nhận thức ngay cả khi bối cảnh câu hỏi được chuyển đổi từ trừu tượng sang thực tế kinh doanh.

GPT-4 thông minh hơn, nhưng không hề hoàn hảo

GPT-4 là phiên bản nâng cấp của GPT-3.5 tỏ ra vượt trội khi giải quyết các bài toán logic hoặc xác suất. Tuy nhiên trong các mô phỏng mang tính chủ quan, ví dụ như lựa chọn phương án rủi ro để gia tăng lợi nhuận, GPT-4 lại thể hiện thiên hướng hành xử cảm tính hơn cả con người.

Đặc biệt, nghiên cứu ghi nhận GPT-4 luôn đưa ra phản hồi thiên lệch trong các tình huống kiểm tra thiên kiến xác nhận, và dễ rơi vào "ảo giác chuỗi thắng" (hot-hand fallacy), tức xu hướng tin rằng sự kiện ngẫu nhiên sẽ lặp lại theo chuỗi, rõ rệt hơn GPT-3.5.

Ngược lại, AI có khả năng tránh được một số sai lệch mà con người thường mắc phải, chẳng hạn như bỏ qua sai lầm tỉ lệ cơ sở (base-rate neglect) hay ngụy biện chi phí chìm (sunk cost fallacy).

AI - Ảnh 2.

Nguyên nhân khiến ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta - Ảnh: AI

Nguồn gốc của thiên kiến AI: Từ chính dữ liệu của con người

Theo nhóm nghiên cứu, nguyên nhân ChatGPT thể hiện thiên kiến giống con người đến từ chính dữ liệu huấn luyện, vốn đầy rẫy các hành vi và tư duy sai lệch của chúng ta. Việc AI được tinh chỉnh dựa trên phản hồi của con người lại càng củng cố xu hướng này, khi mô hình được "thưởng" cho những phản hồi có vẻ hợp lý, thay vì hoàn toàn chính xác.

"Muốn có kết quả chuẩn xác và không thiên lệch, hãy dùng AI cho các nhiệm vụ mà bạn vốn dĩ tin tưởng một chiếc máy tính có thể làm tốt", tiến sĩ Chen khuyến nghị. "Còn nếu phải xử lý các vấn đề mang tính chiến lược hoặc cảm tính, con người vẫn cần giám sát và can thiệp, thậm chí chỉ đơn giản bằng cách viết lại câu hỏi".

Đồng tác giả Meena Andiappan, phó giáo sư ngành nhân sự và quản trị tại Đại học McMaster (Canada), cho rằng: "AI nên được xem như một nhân viên có quyền ra quyết định quan trọng, nghĩa là cần được giám sát và tuân theo nguyên tắc đạo đức. Nếu không, chúng ta đang vô tình tự động hóa lối tư duy sai lệch thay vì cải thiện nó".

Công nghệ AI - vũ khí chống lừa đảo trực tuyến

Trước tình trạng lừa đảo trực tuyến ngày càng tinh vi, AI đang trở thành vũ khí đắc lực chống tội phạm mạng. Các chuyên gia đề xuất giải pháp tích hợp AI để nhận diện cuộc gọi lừa đảo và ngăn chặn rò rỉ dữ liệu cá nhân.

Bình luận hay

Chia sẻ

Tuổi Trẻ Online Newsletters

Đăng ký ngay để nhận gói tin tức mới

Tuổi Trẻ Online sẽ gởi đến bạn những tin tức nổi bật nhất

Bình luận (0)
Tối đa: 1500 ký tự

Tin cùng chuyên mục

Đột phá phát triển từ công nghệ số

Việc thông qua Luật Công nghiệp công nghệ số, Luật Khoa học, công nghệ và đổi mới sáng tạo có thể là nền tảng pháp lý để phát triển công nghiệp công nghệ số quốc gia.

Đột phá phát triển từ công nghệ số

Năm trường đại học 'bắt tay' phát triển nhân lực

Liên minh Nhân lực chiến lược thực thi nghị quyết 57 nhằm góp phần nâng cao năng lực nghiên cứu, đổi mới sáng tạo và ứng dụng trí tuệ nhân tạo trong công tác đào tạo, quản trị và hoạch định chính sách.

Năm trường đại học 'bắt tay' phát triển nhân lực

Vì sao nhiều người vẫn chưa 'thân' với bếp từ?

Nhiều người kỳ vọng chuyển sang bếp từ sẽ tiện hơn, nhanh hơn. Nhưng đến lúc nấu, không ít người “lóng ngóng” với bảng cảm ứng, không biết phải sử dụng thế nào.

Vì sao nhiều người vẫn chưa 'thân' với bếp từ?

Robot AI đột ngột tấn công 2 người, lo sợ về 'cuộc nổi dậy của robot'

Robot hình người Unitree H1 tại một cơ sở thử nghiệm ở Trung Quốc mất kiểm soát, bất ngờ tấn công hai kỹ thuật viên.

Robot AI đột ngột tấn công 2 người, lo sợ về 'cuộc nổi dậy của robot'

Nhật Bản tạo ra pin có thể hoạt động 100 năm ngoài không gian

Nhật Bản đang nghiên cứu tạo ra hệ thống pin có thể liên tục tạo ra điện trong 100 năm trong điều kiện khắc nghiệt của không gian bên ngoài.

Nhật Bản tạo ra pin có thể hoạt động 100 năm ngoài không gian

VNG ghi nhận lợi nhuận thuần 185 tỉ đồng quý 1-2025

Lợi nhuận thuần từ hoạt động kinh doanh sau điều chỉnh của VNG đạt 185 tỉ đồng, tăng mạnh từ mốc chỉ 1 tỉ đồng của quý 1-2024.

VNG ghi nhận lợi nhuận thuần 185 tỉ đồng quý 1-2025
Tất cả bình luận (0)
Ý kiến của bạn sẽ được biên tập trước khi đăng, xin vui lòng viết bằng tiếng Việt có dấu.
Được quan tâm nhất
Mới nhất
Hiện chưa có bình luận nào, hãy là người đâu tiên bình luận về bài viết.
Tối đa: 1500 ký tự
Avatar
Đăng ký bằng email
Khi bấm "Đăng ký" đồng thời bạn đã đồng ý với điều khoản của toà soạn Đăng ký
Đăng nhập
Thông tin bạn đọc Thông tin của bạn đọc sẽ được bảo mật an toàn và chỉ sử dụng trong trường hợp toà soạn cần thiết để liên lạc với bạn.
Gửi bình luận
Đóng
Hoàn thành
Đóng

Bình luận (0)
Tối đa: 1500 ký tự
Tất cả bình luận (0)
Ý kiến của bạn sẽ được biên tập trước khi đăng, xin vui lòng viết bằng tiếng Việt có dấu.
Được quan tâm nhất
Mới nhất
Hiện chưa có bình luận nào, hãy là người đâu tiên bình luận về bài viết.
Tối đa: 1500 ký tự
Avatar