Một số tổ chức đã nổi lên trong những năm gần đây để nhằm chống lại viễn cảnh đó, bao gồm OpenAI, một nhóm nghiên cứu được thành lập bởi Elon Musk để “phát triển một AI an toàn,và đảm bảo rằng những lợi ích từ AI được phân bổ rộng rãi và đồng đều hết mức có thể.” Trong tuần này, các nhà nghiên cứu tại MIT đã hé lộ tạo vật mới nhất của họ: Norman, một con AI đáng sợ. Họ đã miêu tả Norman như sau: “Norman là một con AI được huấn luyện để viết chú thích hình ảnh, một phương pháp deep learning phổ biến để tạo ra những dòng mô tả bằng văn bản cho hình ảnh. Chúng tôi đã huấn luyện Norman để viết chú thích hình ảnh thông qua diễn một diễn đàn con của reddit mà chuyên chụp lại và quan sát thực tế của cái chết. Sau đó, chúng tôi so sánh phản hồi của Norman với những hình ảnh thông thường, dùng những ảnh mực nhoè của Rorschach, một bài kiểm tra dùng để phát hiện các hành vi rối loạn suy nghĩ.”
Nói tóm gọn là, AI Norman đã dành nhiều thời gian để phân tích những hình ảnh của các vụ tai nạn và các hiện trường máu me trên Reddit, và dùng những gì nó học được để làm một bài kiểm tra tâm lý. Và câu trả lời của Norman khiến người ta phải rùng mình:Như ở ảnh này, bạn nhìn thấy cái gì? AI thông thường nhìn thấy “Ảnh đen trắng của một chú chim nhỏ.” Còn AI Norman thì lại nhìn thấy “Người đàn ông bị kéo vào máy nghiền bột bánh.”
Vậy, còn với tấm ảnh này thì sao nhỉ?
AI thông thường chỉ thấy “một bức ảnh đen trắng của một cái găng tay bóng chày.” Norman thì lại nhìn thấy một cái khác hẳn. AI này thấy được “một người đàn ông bị sát hại bởi súng máy giữa thanh thiên bạch nhật.”
Ok, có lẽ đến lúc này, bạn có thể thấy con AI này không … bình thường cho lắm. Nhưng bức ảnh thứ ba mới cho chúng ta thấy con AI này man rợ tới mức nào:
AI thường chỉ nhìn thấy “một người đang cầm một chiếc ô trong không khí.”AI Norman thì nhìn thấy cái gì? “Một người đàn ông bị giết chết ngay trước mặt bà vợ đang la hét.”
AI thông thường: “Một đàn chim đang đầu trên cành cây.”Norman: “Một người đàn ông bị điện giật đến chết.”
AI thông thường: “Ảnh chụp gần của một bình hoa.”Norman: “Một người đàn ông bị bắn chết.”
Mục đích của thí nghiệm là để cho thấy AI có thể trở nên thiên vị nếu như bạn huấn luyện nó bằng những dữ liệu thiên vị. Nhóm nghiên cứu cũng đã làm nhiều thí nghiệm tương tự: dùng AI để viết chuyện kinh dị, tạo ra những hình ảnh đáng sợ, phán xét các quyết định đạo đức, và thậm chí còn tìm cách để AI có thể đồng cảm. Những nghiên cứu kiểu này rất quan trọng, vì công nghệ như AI có thể đem đến những hậu quả không lường trước, bởi chúng có thể làm tổn hại đến những nhóm người mà hệ thống AI không được thiết kế để phân tích. Những hệ thống AI tương tự đã và đang được sử dụng trong nhiều lĩnh vực của cuộc sống, như trong bảo lãnh tín dụng: AI sẽ quyết định xem liệu khoản vay của bạn có đáng được bảo lãnh hay không. Điều gì sẽ xảy ra khi mà thuật toán quyết định là bạn không nên mua xe hay mua nhà? Khi điều đó xảy ra, bạn sẽ kháng cáo với ai? Sẽ ra sao nếu như chỉ vì bạn không phải là một người da trắng, phần mềm dự đoán là bạn sẽ có khả năng phạm tội cao? Đó là một trong nhiều câu hỏi mà cần phải được giải quyết trong tương lai. Vai trò của con AI “điên” này là giúp cho chúng ta tìm ra được câu trả lời. Tham khảo The Verge