10 thất bại nặng nề nhất của trí tuệ nhân tạo trong năm 2017
- Chủ nhật - 07/01/2018 06:09
- |In ra
- |Đóng cửa sổ này
Trí tuệ nhân tạo (AI) đã tạo nên những xu hướng công nghệ nổi bật của năm 2017. Từ loa thông minh tới chatbot hay Face ID và các ứng dụng trò chuyện dựa vào trợ lý ảo, AI dường như đã len lỏi vào mọi ngóc ngách của thị trường công nghệ.
Theo báo cáo của hãng Gartner đưa ra vào tháng 10/2017, AI dự kiến sẽ tạo ra 2,3 triệu việc làm vào năm 2020. Trong đó, Trung Quốc đang là quốc gia thể hiện rõ tham vọng muốn làm chủ AI để nắm thế tiên phong trong tương lai gần.
Nhưng sự tăng trưởng của AI không phải lúc nào cũng đem tới thành công ngay trước mắt. Để đạt được như ngày nay, AI đã phải trải qua khá nhiều thất bại, thậm chí là sai lầm nghiêm trọng. Nhưng cũng từ đó, con người mới tìm ra được hướng giải quyết và cải tiến AI tốt hơn.
Dưới đây là tổng hợp 10 thất bại nặng nề nhất của AI trong suốt năm 2017 mà giới công nghệ có thể coi đó là bài học để cải tiến AI tốt hơn trong tương lai.
1. Google Translate thể hiện sự thiên vị giới tính trong bản dịch Tiếng Thổ Nhĩ Kỳ - Tiếng Anh
Tiếng Thổ Nhĩ Kỳ có một đại từ là "o" dùng cho người thứ ba, không xác định giới tính. Tuy nhiên từ này không có nghĩa trong bản dịch Tiếng Anh. Chính bởi vậy, hệ thống AI của Google Translate đã không thể đoán được đại từ này muốn nói về một chủ thể bất kỳ nào.
Theo trang Quartz, Google Translate đã sử dụng thuật toán thiên vị giới tính để diễn giải đại từ tương ứng trong Tiếng Anh. Kết quả là công cụ dịch của Google đã chuyển một đại từ trung tính thành "he" hoặc "anh ấy" khi đại từ này được đặt trong ngữ cảnh với các từ như "doctor" hoặc "hard working" và "she" hoặc "cô ấy" cho những từ như "lazy" và "nurse".
2. Chatbot Facebook bị "xóa sổ" sau khi tự phát triển ngôn ngữ riêng
Các nhà nghiên cứu Facebook khẳng định, hai trong số chatbot ứng dụng AI có tên Alice và Bob đã tự phát triển các ngôn ngữ riêng của chúng, trong lúc đang trò chuyện với nhau.
Mặc dù những ngôn ngữ tự viết có thể chưa gây hại tại thời điểm này. Tuy nhiên Facebook tin rằng, đó là một hình thức viết tắt và tiềm ẩn rủi ro mất kiểm soát. Cả hai chatbot Alice và Bob đều đã bị xóa sổ sau khi những cuộc đối thoại giữa chúng bị phát hiện.
3. Xe tự lái chỉ mới ngày đầu ra đường đã gặp tai nạn
Đó chính là trường hợp của chiếc xe buýt tự lái lần đầu tiên ra đường tại Las Vegas, Mỹ. Chỉ trong chưa đầy 2 tiếng lăn bánh trên đường, xe đã không may gặp phải tai nạn với một chiếc xe tải chở hàng bất ngờ rẽ từ kho hàng ra mặt đường.
Các nhà chức trách địa phương cho rằng, xe buýt tự lái không có lỗi trong trường hợp này vì cảm biến trên xe đã hoạt động chính xác, ra lệnh cho xe dừng ngay khi phát hiện có tình huống nguy hiểm. Tuy nhiên, nhiều người tin rằng, những vụ tai nạn như vậy đã không thể xảy ra nếu cả hai xe đều có cảm biến phát hiện vật thể. Ngoài ra, trong trường hợp trên nếu là con người xử lý, có lẽ mọi chuyện đã khác.
4. Google Allo gợi ý emoji súng thành emoji người đàn ông Hồi giáo đội khăn xếp
Đối với nhiều người dùng, tính năng trả lời thông minh của Google Allo dựa vào AI có thể sẽ rất thú vị và tiện lợi, nhờ khả năng phản hồi nhanh chóng thông qua văn bản hoặc câu lệnh. Tuy nhiên, kênh CNN bất ngờ phát hiện thấy, có vẻ AI hỗ trợ Google Allo đang tỏ ra thiên vị.
Trên Google Allo, chỉ cần gửi một biểu tượng emoji hình khẩu súng, ngay lập tức Allo có thể trả về cho bạn 3 emoji mang tính tiêu cực và thiên vị. Đó là biểu tượng Dislike (ngón tay trỏ ngược xuống), con dao và hình một người đàn ông đội khăn xếp turban nổi bật của người Hồi giáo.
Ngay sau khi phát hiện thông tin trên, Google đã gửi lời xin lỗi tới người dùng và khẳng định sẽ thay đổi thuật toán Allo.
5. Face ID bị qua mặt bởi mặt nạ của Bkav
Một tuần sau khi iPhone X lên kệ, làng công nghệ thế giới xôn xao sau vụ công ty bảo mật Việt Nam Bkav khẳng định, thậm chí trình diễn khả năng hack Face ID (tính năng xác thực người dùng thông qua gương mặt và dựa vào AI) trên iPhone X chỉ bằng một chiếc mặt nạ có giá khoảng 150 USD.
Tất nhiên, Apple chưa có câu trả lời chính thức sau vụ việc trên. Nhưng một lần nữa có thể thấy, công nghệ bảo mật nói chung và nhận diện gương mặt nói riêng vẫn còn nhiều điều đáng bàn. Đặc biệt, AI cần phải giải quyết được bài toán bảo mật tối đa trước khi ứng dụng trong các sản phẩm thực tế.
6. AI dự đoán sai trong giải đua ngựa Kentucky Derby
Sau khi đoán đúng tất cả 4 con ngựa chiến thắng vào năm 2016, AI đã thất bại trong năm qua khi không thể đoán được con ngựa nào chiến thắng giải đua ngựa Kentucky Derby thường niên.
AI chỉ dự đoán được 2 trong số 4 con ngựa về đích, thậm chí ngay cả khi đoán đúng hai con về đích, AI vẫn tiếp tục đoán sai thứ hạng của hai con ngựa. Rõ ràng, đua ngựa luôn là một trò chơi may rủi nhưng nhiều người vẫn đặt niềm tin lớn vào AI.
7. Alexa khiến người dùng chịu vạ lây do tự ý bật nhạc
Cảnh sát Đức đã bất ngờ ập vào một căn hộ trong một đêm tháng 11/2017, sau khi nhiều hàng xóm cáo buộc âm thanh quá lớn phát ra từ căn hộ này vào sáng sớm.
Hài hước thay, âm nhạc không phải là do khổ chủ bật mà do chính chiếc loa thông minh Amazon Echo tai hại gây ra. Loa thông minh của Amazon đã tự kích hoạt bật nhạc khi chủ nhà ra ngoài. Thú vị hơn, cảnh sát đã thay ổ khóa và người chủ khi về phải gọi thợ khóa để vào nhà.
8. Google Home đột ngột ngừng hoạt động với số lượng lớn
Gần như tất cả các mẫu loa thông minh Google Home đột ngột gặp phải tình trạng ngừng hoạt động trong tháng 6/2017. Người dùng cáo buộc về lỗi khi họ cố giao tiếp với loa. Sau khi nhận được nhiều phản ánh, Google cũng đã tìm ra giải pháp cho sự cố trên.
9. Google Home Mini tự ý theo dõi chủ nhân
Vào tháng 10, các nhà nghiên cứu bảo mật phát hiện thấy, loa thông minh Google Home Mini đã bí mật tự bật, ghi âm hàng ngàn phút hội thoại của người dùng và gửi về cho Google.
Vụ việc chỉ bị phanh phui khi một người dùng phát hiện trợ lý ảo tự ý bật và đang cố nghe TV. Sau khi kiểm tra công cụ My Activity, người dùng này phát hiện, thiết bị đã âm thầm theo dõi và ghi âm anh trong suốt một thời gian dài. Google sau đó đã nhanh chóng tìm ra nguyên nhân và công bố bản vá sửa lỗi trên.
10. Facebook "thả cửa" cho quảng cáo nhắm tới người Do Thái
Facebook sử dụng AI để hỗ trợ vận hành nền tảng dịch vụ, cho phép các công ty, thương hiệu có thể mua quảng cáo dựa vào nhân khẩu học.
Mặc dù vậy, một bê bối bất ngờ bị phát hiện vào tháng 9/2017 khi tổ chức ProPublica tiết lộ, một trong những tiêu chí phân loại nhân khẩu học liên quan đến những người có quan điểm phân biệt chủng tộc hoặc chống người Do Thái.
Tổ chức này cũng phát hiện thấy, các quảng cáo được sử dụng để nhắm tới những đối tượng cụ thể, là những người quan tâm tới việc chống người Do Thái hoặc bị kích động bởi những tư tưởng cực đoan về Do Thái.
Về phía Facebook, hãng khẳng định đây là kết quả do thuật toán làm sai và không phải do con người. Tuy nhiên, Facebook hứa sẽ loại bỏ chúng để làm trong sạch môi trường quảng cáo.