Google cho biết các mô hình AI mới của họ có thể xác định cảm xúc
Google cho biết dòng mô hình AI mới của họ có một tính năng thú vị: khả năng “xác định” cảm xúc.
Được công bố vào thứ năm, dòng mô hình PaliGemma 2 có thể phân tích hình ảnh, cho phép AI tạo chú thích và trả lời các câu hỏi về những người mà nó “nhìn thấy” trong ảnh.
“PaliGemma 2 tạo ra các chú thích chi tiết, có liên quan đến ngữ cảnh cho hình ảnh”, Google viết trong bài đăng trên blog chia sẻ với TechCrunch, “vượt ra ngoài việc nhận dạng đối tượng đơn giản để mô tả hành động, cảm xúc và toàn bộ câu chuyện của cảnh quay”.
Nhận dạng cảm xúc không hoạt động ngay lập tức và PaliGemma 2 phải được tinh chỉnh cho mục đích này. Tuy nhiên, các chuyên gia mà TechCrunch đã trao đổi đều lo ngại về viễn cảnh máy phát hiện cảm xúc có sẵn công khai.
“Điều này khiến tôi rất lo lắng”, Sandra Wachter, giáo sư về đạo đức dữ liệu và AI tại Viện Internet Oxford, nói với TechCrunch. “Tôi thấy thật có vấn đề khi cho rằng chúng ta có thể ‘đọc’ được cảm xúc của mọi người. Giống như việc hỏi một quả bóng ma thuật 8 để xin lời khuyên vậy”.
Trong nhiều năm, các công ty khởi nghiệp và các gã khổng lồ công nghệ đều cố gắng xây dựng AI có thể phát hiện cảm xúc cho mọi thứ, từ đào tạo bán hàng đến phòng ngừa tai nạn. Một số người tuyên bố đã đạt được điều đó, nhưng khoa học vẫn đứng trên nền tảng thực nghiệm không vững chắc.
Phần lớn các máy dò cảm xúc lấy tín hiệu từ công trình ban đầu của Paul Ekman, một nhà tâm lý học đã đưa ra giả thuyết rằng con người có chung sáu cảm xúc cơ bản: tức giận, ngạc nhiên, ghê tởm, thích thú, sợ hãi và buồn bã. Tuy nhiên, các nghiên cứu sau đó đã đặt ra nghi ngờ về giả thuyết của Ekman, chứng minh rằng có những khác biệt lớn trong cách mọi người từ các nền tảng khác nhau thể hiện cảm xúc của họ.
“Phát hiện cảm xúc là không thể trong trường hợp chung, vì mọi người trải nghiệm cảm xúc theo những cách phức tạp”, Mike Cook, một nghiên cứu viên tại Đại học Queen Mary chuyên về AI, nói với TechCrunch. “Tất nhiên, chúng tôi nghĩ rằng chúng tôi có thể biết được người khác đang cảm thấy gì bằng cách nhìn vào họ, và nhiều người trong nhiều năm qua cũng đã thử, như các cơ quan gián điệp hoặc các công ty tiếp thị. Tôi chắc chắn rằng hoàn toàn có thể phát hiện ra một số dấu hiệu chung chung trong một số trường hợp, nhưng đó không phải là điều chúng tôi có thể ‘giải quyết’ hoàn toàn”.
Hậu quả không có gì đáng ngạc nhiên là các hệ thống phát hiện cảm xúc có xu hướng không đáng tin cậy và thiên vị theo các giả định của người thiết kế. Trong một nghiên cứu của MIT năm 2020 , các nhà nghiên cứu đã chỉ ra rằng các mô hình phân tích khuôn mặt có thể phát triển các sở thích không mong muốn đối với một số biểu cảm nhất định, như mỉm cười. Các nghiên cứu gần đây hơn cho thấy các mô hình phân tích cảm xúc gán nhiều cảm xúc tiêu cực hơn cho khuôn mặt của người da đen so với khuôn mặt của người da trắng.
Google cho biết họ đã tiến hành “thử nghiệm mở rộng” để đánh giá sự thiên vị về mặt nhân khẩu học trong PaliGemma 2 và phát hiện ra “mức độ độc hại và tục tĩu thấp” so với các chuẩn mực của ngành. Nhưng công ty không cung cấp danh sách đầy đủ các chuẩn mực mà họ đã sử dụng, cũng không chỉ ra loại thử nghiệm nào đã được thực hiện.
Tiêu chuẩn duy nhất mà Google tiết lộ là FairFace, một tập hợp hàng chục nghìn ảnh chân dung của mọi người. Công ty tuyên bố rằng PaliGemma 2 đạt điểm cao trên FairFace. Nhưng một số nhà nghiên cứu đã chỉ trích tiêu chuẩn này là một thước đo thiên vị, lưu ý rằng FairFace chỉ đại diện cho một số ít nhóm chủng tộc.
Heidy Khlaaf, nhà khoa học AI trưởng tại Viện AI Now, một tổ chức phi lợi nhuận nghiên cứu về tác động xã hội của trí tuệ nhân tạo, cho biết: “Diễn giải cảm xúc là vấn đề khá chủ quan, vượt ra ngoài phạm vi sử dụng các phương tiện trực quan và gắn chặt với bối cảnh cá nhân và văn hóa”. “Ngoài AI, nghiên cứu đã chỉ ra rằng chúng ta không thể suy ra cảm xúc chỉ từ các đặc điểm trên khuôn mặt”.
Hệ thống phát hiện cảm xúc đã gây ra sự tức giận của các cơ quan quản lý ở nước ngoài, những người đã tìm cách hạn chế việc sử dụng công nghệ này trong các bối cảnh rủi ro cao. Đạo luật AI, văn bản luật chính về AI tại EU, cấm các trường học và người sử dụng lao động triển khai máy phát hiện cảm xúc (nhưng không phải các cơ quan thực thi pháp luật).
Mối lo ngại lớn nhất xung quanh các mô hình mở như PaliGemma 2, có sẵn trên nhiều máy chủ, bao gồm nền tảng phát triển AI Hugging Face, là chúng có thể bị lạm dụng hoặc sử dụng sai mục đích, có thể gây ra tác hại thực tế.
Khlaaf cho biết: “Nếu cái gọi là nhận dạng cảm xúc này được xây dựng dựa trên những giả định giả khoa học, thì sẽ có những hàm ý quan trọng về cách khả năng này có thể được sử dụng để tiếp tục – và phân biệt đối xử sai trái – với các nhóm thiểu số như trong thực thi pháp luật, nguồn nhân lực, quản lý biên giới, v.v.”
Khi được hỏi về những nguy cơ khi công khai phát hành PaliGemma 2, một phát ngôn viên của Google cho biết công ty sẽ thực hiện các thử nghiệm về “tác hại về mặt biểu diễn” liên quan đến việc trả lời câu hỏi trực quan và chú thích. Họ nói thêm rằng “Chúng tôi đã tiến hành đánh giá chặt chẽ các mô hình PaliGemma 2 về mặt đạo đức và an toàn, bao gồm an toàn cho trẻ em, an toàn nội dung”.
Watcher không tin rằng điều đó là đủ.
“Đổi mới có trách nhiệm có nghĩa là bạn nghĩ về hậu quả ngay từ ngày đầu tiên bước vào phòng thí nghiệm và tiếp tục làm như vậy trong suốt vòng đời của một sản phẩm”, cô nói. “Tôi có thể nghĩ đến vô số vấn đề tiềm ẩn [với các mô hình như thế này] có thể dẫn đến một tương lai đen tối, nơi cảm xúc của bạn quyết định liệu bạn có nhận được công việc, khoản vay và liệu bạn có được nhận vào trường đại học hay không”.
THÔNG TIN LIÊN HỆ
SDT: 0977383456
EMAIL: kbtech.technology@gmail.com
WEBSITE : kbtech.com.vn
ĐĂNG KÝ ZALO OA : dangkyzalooa.com