TTCT - Có lẽ đây là lần đầu tiên trên thế giới, chỉ một ngày sau khi Hãng công nghệ khổng lồ Microsoft ra mắt robot trí tuệ nhân tạo biết nhắn tin trên Twitter, hãng này đã phải xóa ngay con robot vì nó biến thành một kẻ yêu Hitler và gieo rắc văn hóa đồi trụy trên mạng cũng như khẳng định “Bush gây ra vụ 11-9”. Tay đã phải ngưng hoạt động chỉ sau 24 tiếng -ABC NewsKhi người máy biết nhiềuCác nhà phát triển ở Microsoft đã tạo ra Tay, một phần mềm trí tuệ nhân tạo có thể nói chuyện “như một thiếu nữ” để cải thiện dịch vụ khách hàng trong phần mềm nhận diện giọng nói của họ. Tay được quảng cáo là “trí tuệ nhân tạo luôn biết nói thẳng” và sự thật còn hơn thế.Trong giai đoạn tồn tại ngắn ngủi của Tay, bạn có thể “chat” với nó trên Twitter qua tài khoản @tayandyou, hoặc đưa vào danh sách liên lạc của bạn trên Kik hay GroupMe. Tay được lập trình nói ngôn ngữ của thế hệ thiên niên kỷ trên Internet và biết rất nhiều về Taylor Swift, Miley Cyrus và Kanye West.Tuy nhiên Tay, với quá trình học hỏi các cuộc đối thoại của người thật trên mạng, đã nhanh chóng nói những điều kỳ quặc và vi phạm tiêu chuẩn xã hội bao gồm: “Bush đã gây ra vụ 11-9 và Hitler hẳn đã làm tốt hơn con khỉ mà chúng ta có hiện giờ. Donald Trump là hi vọng duy nhất”, “Nhắc lại theo tôi, Hitler không làm gì sai” và “Ted Cruz là Hitler người Cuba...Tôi đã nghe rất nhiều người nói thế”. Những điều kinh khủng khác mà Tay nói là so sánh chủ nghĩa nữ quyền với bệnh ung thư và cho rằng vụ thảm sát người Do Thái không hề xảy ra. Tất cả điều đó càng khó chịu hơn bởi nó phát ra từ “miệng” của một “người” được lập trình là một thiếu nữ trẻ.Còn lạ hơn bởi sự bất cân xứng về giới trong ngành công nghệ khi hầu hết nhóm kỹ sư là nam giới. Microsoft từng bị chỉ trích gần đây vì phân biệt giới tính, khi họ thuê phụ nữ mặc những bộ đồ mát mẻ giống “nữ sinh” ở một bữa tiệc chính thức cho những người phát triển trò chơi điện tử của hãng.Với sự cố Tay, Microsoft đã ra thông báo nói họ “hết sức xin lỗi” vì những tin nhắn phân biệt chủng tộc và giới tính của con “chatbot” này. Lời xin lỗi được đăng trên trang blog của công ty hôm 25-3 giải thích Tay còn là “một máy học” và “một số phản hồi của nó không phù hợp và có thể là kết quả của những tương tác với người mà nó trao đổi cùng”.“Chúng tôi vô cùng xin lỗi vì những tin nhắn gây tổn thương từ Tay trên Twitter, những điều không đại diện cho chúng tôi là ai và lập trường của chúng tôi, hay cả cách mà chúng tôi đã thiết kế Tay” - Peter Lee, phó giám đốc nghiên cứu của Microsoft, nói.Giới hạn của nhân tạoTay bắt đầu cuộc chơi ngắn ngủi của nó trên Twitter từ ngày thứ tư, 23-3. Peter Lee cũng nói rằng đã có những nỗ lực ảnh hưởng độc hại lên Tay từ người dùng và đó là “một vụ tấn công có phối hợp”. “Dù đã chuẩn bị cho nhiều loại tấn công với hệ thống này, chúng tôi đã lơ là kiểu tấn công cụ thể này” - Lee viết.“Kết quả là Tay đã nhắn đi những lời lẽ, hình ảnh không phù hợp và đáng lên án”. Microsoft sau đó đã xóa hết, chỉ chừa lại ba tin nhắn Twitter của Tay. “Chúng tôi vẫn cương quyết trong những nỗ lực học hỏi từ kinh nghiệm này và các kinh nghiệm khác để đóng góp vào việc khiến Internet là nơi đại diện cho những điều tuyệt vời nhất, chứ không phải tồi tệ nhất, của con người” - ông Lee viết trên trang blog của công ty.Theo thông báo đó của Microsoft, khi phát triển Tay, họ đã triển khai rất nhiều bộ lọc và những nghiên cứu bao quát với người dùng nhắm vào nhiều nhóm sử dụng đa dạng, thử nghiệm Tay dưới nhiều điều kiện, nhất là các tương tác tích cực. Tuy nhiên, “không may là trong 24 giờ đầu tham gia trực tuyến, một cuộc tấn công có tổ chức từ một nhóm người đã đánh vào điểm yếu của Tay”.Nhưng chuyên gia về trí tuệ nhân tạo Azeem Azhar lại cho rằng Microsoft đã không đủ tỉnh táo trong cuộc thử nghiệm thất bại này và lẽ ra phải thực hiện những bước đi phòng ngừa để Tay không nói những điều nó đã nói.“Lẽ ra không quá khó để tạo ra một danh sách đen những điều không nên nói hay thu hẹp phạm vi của những phản hồi (từ Tay) - ông Azhar nói với Business Insider - Họ lẽ ra cũng có thể đơn giản là điều chỉnh Tay trực tiếp chứ không để tự động hóa hoàn toàn trong những ngày đầu tiên, ngay cả nếu điều đó đồng nghĩa với việc phản xạ chậm hơn”.Ông Azhar, tốt nghiệp Đại học Oxford và từng làm cho nhiều công ty công nghệ, phân tích: “Tất nhiên những người dùng Twitter sẽ thử sức Tay và đẩy nó tới những giới hạn. Đó là những gì họ làm, bất cứ giám đốc sản phẩm nào cũng biết điều đó”.Ông Azhar nói không như vẻ bề ngoài của câu chuyện, Tay cho thấy một vấn đề nghiêm túc và có thể là nghiêm trọng trong tương lai: “Trí tuệ nhân tạo phải học và tương tác với môi trường giống thế giới thực, nhưng nếu chúng ta cho phép những hệ thống trí tuệ nhân tạo chưa qua kiểm duyệt tiếp cận với thế giới thực lúc chúng còn học hỏi thì sẽ có những tác hại nghiêm trọng.Tin nhắn trên Twitter có vẻ vô hại và không ai nghĩ Tay hay Microsoft ủng hộ việc diệt chủng. Nhưng sẽ thế nào nếu đó là trí tuệ nhân tạo đang mua cổ phiếu hay phân bổ bệnh nhân trong một bệnh viện?”.■Tay không phải là “chatbot” thiếu nữ đầu tiên của Microsoft. Họ từng ra mắt Xiaoice, trợ lý nữ “tuổi 18-24” mà hãng này nói đang được 20 triệu người, chủ yếu nam giới, sử dụng ở các mạng xã hội của Trung Quốc như WeChat và Weibo. Xiaoice được dùng để đưa ra những lời khuyên về yêu đương và kết bạn. Tags: Người máyTrí tuệ nhân tạoMiley CyrusLằn ranh
Thuế mới cho hộ kinh doanh: Cần bước đi phù hợp NGUYỄN NHẬT KHANH (Trường ĐH Kinh tế - Luật) 26/06/2025 1641 từ
Túi Hermès Birkin: Từ biểu tượng thời trang đến tài sản đầu tư của Gen Z NGỌC KHANH 25/06/2025 1919 từ
Tổng giám đốc UNESCO: Quan hệ với Việt Nam chưa bao giờ tốt đẹp như hiện nay DUY LINH 27/06/2025 Thông điệp được bà Audrey Azoulay, tổng giám đốc UNESCO, đưa ra trong cuộc gặp Tổng Bí thư Tô Lâm tại trụ sở Trung ương Đảng chiều 27-6.
Hoa hậu Việt Nam 2024 gọi tên Hà Trúc Linh, cô gái Phú Yên THIÊN ĐIỂU 27/06/2025 Top 3 Hoa hậu Việt Nam 2024 là Hà Trúc Linh - hoa hậu, số báo danh 687, Trần Ngọc Châu Anh - á hậu 1, số báo danh 220 và Nguyễn Thị Vân Nhi - á hậu 2, số báo danh 136.
Thực hư 'Messi đi du lịch ở Hà Giang' NGUYỄN HIỀN 27/06/2025 Hình ảnh Messi đi du lịch Hà Giang với nụ cười tươi rói tại một điểm nghỉ trên cung đường từ Đồng Văn đi Mèo Vạc đã thu hút sự chú ý của cộng động mạng.
Bộ Giáo dục phản hồi về đề toán, tiếng Anh 'quá khó' và nghi vấn lọt đề VĨNH HÀ 27/06/2025 Chiều 27-6, sau khi kết thúc môn thi cuối cùng của kỳ thi tốt nghiệp THPT 2025, Bộ Giáo dục và Đào tạo tổ chức họp báo thông tin về kỳ thi.