Trang chủ Tin Tức Nhận diện cảm xúc qua lời nói là cột mốc tiếp theo...

Nhận diện cảm xúc qua lời nói là cột mốc tiếp theo của cuộc cách mạng AI

807

Thiết bị điều khiển qua giọng nói – chủ yếu là loa thông minh như Alexa của Amazon, Google Home của Google và Homepod của Apple – đang ngày càng trở nên phổ biến hơn. CEO Google Sundar Pichai gần đây cho biết hơn 20% lệnh tìm kiếm công ty nhận được tới từ điện thoại di động và được khởi tạo qua giọng nói. Chưa dừng lại ở đó, cuối năm 2017 vừa rồi, các nhà phân tích gợi ý rằng có đến 44 triệu sản phẩm Alexa và Google Home đã được bán ra. Tốc độ phủ sóng chóng mặt của loa thông minh là không thể chối cãi, nhưng bên cạnh đó, liệu chúng ta có cần dừng chân và suy ngẫm lại xem liệu AI nói chung và machine learning nói riêng nếu tiếp tục phát triển sẽ đi theo hướng nào và có đem lại rủi ro gì cho con người?
Công nghệ nhận diện giọng nói vẫn đang không ngừng gây ấn tượng với thế giới nhờ khả năng nhận diện từ ngữ tốt, nhưng với tư cách là một chuyên gia âm thanh – người viết cho rằng giao tiếp ngôn ngữ rất phức tạp và chứa đựng trong đó nhiều hơn là chỉ ngôn từ. Hay nói cách khác, ngữ điệu của một câu nói cũng quan trọng không kém ý nghĩa ngôn từ của câu nói đó. Khi ai đó nói “Tôi ổn”, chúng ta thường dựa vào giọng điệu của người nói để đoán được họ có thật sự ổn hay không, bởi lượng thông tin được cho trong câu là quá ít và người nói hoàn toàn có thể nói dối. Giọng nói một người có thể cho ta biết rất nhiều thông tin về người đó, chẳng hạn như nơi họ sinh ra hay cảm xúc hiện tại của họ. Các nhà khoa học cho biết khi nghe một người lạ nói chuyện, chúng ta có khuynh hướng ngay lập tức để ý đến chất giọng cũng như tông giọng để đưa ra phán đoán về trình độ giáo dục, tiểu sử bản thân cũng như tầng lớp địa vị của họ trong xã hội.
Lẽ đương nhiên, các thiết bị kiểm soát bằng giọng nói hiện thời chưa có khả năng nhận diện cảm xúc qua ngôn ngữ, và chính điều đó khiến việc sử dụng smart speaker đôi khi có thể trở nên rất…bực mình bởi tất cả những gì chúng quan tâm là ngôn từ và gần như lờ đi hoàn toàn cách mà câu lệnh được diễn đạt ra cũng như cảm xúc trong câu nói đó. Có thể nói, nhận diện cảm xúc qua giọng nói là cột mốc tiếp theo của các ông lớn công nghệ trong cuộc cách mạng AI đặt ra.
Nếu thiết bị điều khiển qua giọng nói có thể nhận diện được trường thông tin cảm xúc, tương tác giữa người và vật có thể trở nên nhanh chóng và hiệu quả hơn bao giờ hết. Thế nhưng đi kèm với đó là sự thận trọng thường trực về những hậu quả không mong muốn. Bởi vốn dĩ công nghệ nhận diện giọng nói phụ thuộc vào machine learning – một nhánh nhỏ của trí tuệ nhân tạo có khả năng tập hợp hàng tỷ thuật toán và số liệu thống kê từ một máy chủ dữ liệu và chính vì lẽ đó, hành vi của AI là không thể lường trước được.

Liệu AI của tương lai có thực sự thông minh hơn?

Nghiên cứu chỉ ra rằng mẫu dữ liệu dùng để đào tạo machine learning có xu hướng dẫn tới thiên vị. Một ví dụ điển hình về tính thiên vị của trí tuệ nhân tạo có thể nhận thấy được trong trường hợp dưới đây về Google Translate:
Khi sử dụng để thông dịch hai cụm từ tiếng Thổ Nhĩ Kỳ “o bir doktor” và “o bir hemşire” sang tiếng Anh, Google Translate đã trả về kết quả “He is a doctor” (Anh ấy là bác sĩ) và “She is a nurse” (Cô ấy là y tá). Tuy nhiên trong tiếng Thổ Nhĩ Kỳ, “o” là đại từ ngôi thứ ba dùng cho cả hai giới. Vậy do đâu mà Translate cho rằng nhân vật “o” là nam giới trong câu đầu tiên và nữ giới trong câu thứ hai? Câu trả lời là phần mềm đã được đào tạo với nhiêu thuật toán thiên vị văn hóa trong kho dữ liệu thuật toán.

Translate mặc định cho rằng y tá phải là nữ và bác sĩ phải là nam giới.

Đây không phải vấn đề dễ giải quyết bởi machine learning phản ánh chính xác suy nghĩ và quan điểm của con người. Nghiên cứu cho biết khi một phụ nữ kết thúc câu nói bằng cách lên giọng, người nghe sẽ nghĩ rằng đó là phụ nữ trẻ, và một người đàn ông sẽ được cho là to lớn và khỏe mạnh khi anh ta sở hữu giọng nói trầm ấm. Những phỏng đoán đơn giản hóa như vậy rất dễ dẫn tới suy luận và phán xét thiên kiến.
Khả năng suy luận xem liệu chủ nhân đang cảm thấy tức giận, hạnh phúc hay buồn rầu ngay từ ngữ điệu lời nói của họ có thể trở nên rất hữu ích cho người dùng thiết bị nhà ở thông minh. Nhưng rắc rối nằm ở chỗ: dấu hiệu về ngữ điệu thay đổi tùy theo từng cá thể, đặc biệt là trong từng ngôn ngữ và kéo theo đó là khác biệt theo từng nền văn hóa. Thậm chí đến cả con người cũng không thể nhận diện được cảm xúc chính xác 100%, vậy có nên trông đợi máy móc sẽ làm được khá hơn chúng ta?
Cuối cùng, có thể đoán được rằng các hãng công nghệ phát triển thiết bị thông minh điều khiển qua giọng nói nhiều khả năng đã và đang làm việc với những chuyên gia về âm thanh để nghiên cứu và phát triển ra một trợ lý ảo có khả năng cảm nhận được ngữ điệu trong câu nói. Nhưng mọi ông lớn trong cuộc đua AI nói chung và nhận diện giọng nói nói riêng cần phải tỏ ra hết sức thận trọng, trước khi đào tạo AI với một lượng dữ liệu về giọng nói con người khổng lồ và bắt đầu cho phép chúng giải mã tiếng nói con người.