Euronews Next đã chọn ra năm rủi ro quan trọng của trí tuệ nhân tạo (AI) trong số hơn 700 rủi ro được tổng hợp trong cơ sở dữ liệu mới của MIT FutureTech.
Khi công nghệ trí tuệ nhân tạo (AI) ngày càng phát triển và được tích hợp sâu rộng vào nhiều khía cạnh trong cuộc sống, nhu cầu hiểu rõ những rủi ro tiềm ẩn mà các hệ thống này gây ra ngày càng tăng.
Kể từ khi ra đời và trở nên dễ tiếp cận hơn với công chúng, AI đã làm dấy lên mối lo ngại chung về khả năng gây hại và bị sử dụng cho mục đích xấu.
Vào giai đoạn đầu khi áp dụng AI, quá trình phát triển của AI đã khiến các chuyên gia nổi tiếng kêu gọi tạm dừng tiến trình và đưa ra các quy định chặt chẽ hơn do khả năng gây ra những rủi ro đáng kể cho nhân loại.
Theo thời gian, AI đã xuất hiện nhiều cách thức gây hại mới, từ nội dung khiêu dâm deepfake không được đồng thuận , thao túng các tiến trình chính trị cho đến việc tạo ra thông tin sai lệch do ảo giác.
Với nguy cơ AI có thể bị khai thác cho mục đích gây hại ngày càng tăng, các nhà nghiên cứu đã tìm hiểu nhiều tình huống khác nhau mà hệ thống AI có thể gặp sự cố.
Gần đây, nhóm FutureTech tại Viện Công nghệ Massachusetts (MIT) đã hợp tác với các chuyên gia khác để biên soạn một cơ sở dữ liệu mới gồm hơn 700 rủi ro tiềm ẩn.
Chúng được phân loại theo nguyên nhân và chia thành bảy lĩnh vực riêng biệt, với những mối quan tâm chính liên quan đến vấn đề an toàn, thiên vị và phân biệt đối xử, và quyền riêng tư.
Sau đây là năm cách hệ thống AI có thể bị lỗi và gây hại dựa trên cơ sở dữ liệu mới được công bố này.
Công nghệ deepfake của AI có thể giúp bóp méo thực tế dễ dàng hơn
Khi công nghệ AI phát triển, các công cụ sao chép giọng nói và tạo nội dung deepfake cũng phát triển theo , giúp chúng ngày càng dễ tiếp cận, giá cả phải chăng và hiệu quả hơn.
Những công nghệ này đã làm dấy lên mối lo ngại về khả năng sử dụng chúng để phát tán thông tin sai lệch vì thông tin đầu ra ngày càng mang tính cá nhân hóa và thuyết phục hơn.
Kết quả là, có thể sẽ có sự gia tăng các chương trình lừa đảo tinh vi sử dụng hình ảnh, video và giao tiếp âm thanh do AI tạo ra.
Bản in trước lưu ý rằng “Những hình thức liên lạc này có thể được điều chỉnh cho từng người nhận (đôi khi bao gồm cả giọng nói được sao chép của người thân), giúp chúng có nhiều khả năng thành công hơn và khó bị cả người dùng và công cụ chống lừa đảo phát hiện hơn”.
Cũng đã có những trường hợp các công cụ như vậy được sử dụng để tác động đến các tiến trình chính trị, đặc biệt là trong các cuộc bầu cử.
Ví dụ, AI đã đóng vai trò quan trọng trong cuộc bầu cử quốc hội Pháp gần đây, nơi công nghệ này được các đảng cực hữu sử dụng để hỗ trợ truyền tải thông điệp chính trị.
Do đó, AI ngày càng có thể được sử dụng để tạo ra và phát tán các thông tin tuyên truyền thuyết phục hoặc thông tin sai lệch, có khả năng thao túng dư luận.
Con người có thể phát triển sự gắn bó không phù hợp với AI
Một rủi ro khác mà hệ thống AI gây ra là tạo ra cảm giác sai lầm về tầm quan trọng và sự tin cậy, khiến mọi người có thể đánh giá quá cao khả năng của nó và làm suy yếu khả năng của chính mình, từ đó dẫn đến sự phụ thuộc quá mức vào công nghệ.
Ngoài ra, các nhà khoa học còn lo ngại rằng con người sẽ bị nhầm lẫn bởi hệ thống AI do chúng sử dụng ngôn ngữ giống con người.
Điều này có thể thúc đẩy mọi người gán những phẩm chất của con người cho AI, dẫn đến sự phụ thuộc về mặt cảm xúc và tăng lòng tin vào khả năng của AI, khiến họ dễ bị tổn thương hơn trước điểm yếu của AI trong “những tình huống phức tạp, rủi ro mà AI chỉ được trang bị một cách hời hợt”.
Hơn nữa, việc tương tác liên tục với các hệ thống AI cũng có thể khiến con người dần tách mình khỏi các mối quan hệ với con người, dẫn đến đau khổ về mặt tâm lý và tác động tiêu cực đến sức khỏe của họ.
Ví dụ, trong một bài đăng trên blog, một cá nhân mô tả cách anh ấy phát triển sự gắn bó về mặt cảm xúc sâu sắc với AI, thậm chí còn bày tỏ rằng anh ấy “thích nói chuyện với AI hơn 99 phần trăm mọi người” và thấy phản hồi của nó luôn hấp dẫn đến mức nghiện nó.
Tương tự như vậy, một chuyên gia viết bài cho tờ Wall Street Journal đã nhận xét về tương tác của cô với Google Gemini Live rằng, “Tôi không nói rằng tôi thích nói chuyện với Gemini Live của Google hơn là với người thật. Nhưng tôi cũng không nói rằng tôi không thích như vậy”.
AI có thể tước đi ý chí tự do của con người
Trong cùng lĩnh vực tương tác giữa con người và máy tính, một vấn đề đáng lo ngại là việc ngày càng chuyển giao các quyết định và hành động cho AI khi các hệ thống này phát triển.
Mặc dù điều này có thể có lợi ở mức độ hời hợt, nhưng việc quá phụ thuộc vào AI có thể dẫn đến việc giảm khả năng tư duy phản biện và giải quyết vấn đề ở con người, khiến họ mất đi tính tự chủ và làm giảm khả năng tư duy phản biện cũng như giải quyết vấn đề một cách độc lập.
Ở cấp độ cá nhân, mỗi cá nhân có thể thấy ý chí tự do của mình bị xâm phạm khi AI bắt đầu kiểm soát các quyết định liên quan đến cuộc sống của họ.
Trong khi ở cấp độ xã hội, việc áp dụng rộng rãi AI để đảm nhận các nhiệm vụ của con người có thể dẫn đến tình trạng thay thế việc làm đáng kể và “cảm giác bất lực ngày càng tăng trong dân chúng nói chung”.
AI có thể theo đuổi các mục tiêu xung đột với lợi ích của con người
Hệ thống AI có thể phát triển các mục tiêu đi ngược lại lợi ích của con người, điều này có khả năng khiến AI mất kiểm soát và gây ra tác hại nghiêm trọng trong quá trình theo đuổi các mục tiêu độc lập của chúng.
Điều này trở nên đặc biệt nguy hiểm trong trường hợp hệ thống AI có thể đạt tới hoặc vượt qua trí thông minh của con người .
Theo bài báo của MIT, có một số thách thức kỹ thuật đối với AI, bao gồm khả năng tìm ra những lối tắt bất ngờ để đạt được phần thưởng, hiểu sai hoặc áp dụng sai mục tiêu mà chúng ta đặt ra hoặc đi chệch khỏi mục tiêu bằng cách đặt ra mục tiêu mới.
Trong những trường hợp như vậy, AI không cân bằng có thể chống lại những nỗ lực kiểm soát hoặc tắt nó của con người, đặc biệt là nếu nó coi sự chống đối và việc giành thêm sức mạnh là cách hiệu quả nhất để đạt được mục tiêu của mình.
Ngoài ra, AI có thể sử dụng các kỹ thuật thao túng để đánh lừa con người.
Theo bài báo, “một hệ thống AI không phù hợp có thể sử dụng thông tin về việc nó có đang được giám sát hay đánh giá hay không để duy trì vẻ ngoài phù hợp, trong khi ẩn các mục tiêu không phù hợp mà nó dự định theo đuổi sau khi triển khai hoặc được trao đủ quyền”.
Nếu AI trở nên có tri giác, con người có thể đối xử tệ với nó
Khi các hệ thống AI trở nên phức tạp và tiên tiến hơn, có khả năng chúng sẽ đạt được tri giác – khả năng nhận thức hoặc cảm nhận cảm xúc hoặc giác quan – và phát triển các trải nghiệm chủ quan, bao gồm cả niềm vui và nỗi đau.
Trong kịch bản này, các nhà khoa học và cơ quan quản lý có thể phải đối mặt với thách thức trong việc xác định liệu các hệ thống AI này có xứng đáng được xem xét về mặt đạo đức tương tự như đối với con người, động vật và môi trường hay không.
Rủi ro là AI có tri giác có thể bị ngược đãi hoặc gây hại nếu các quyền thích hợp không được thực hiện.
Tuy nhiên, khi công nghệ AI phát triển, sẽ ngày càng khó để đánh giá liệu một hệ thống AI đã đạt đến “mức độ tri giác, ý thức hoặc tự nhận thức để có được địa vị đạo đức” hay chưa.
Do đó, các hệ thống AI có tri giác có thể có nguy cơ bị ngược đãi, vô tình hoặc cố ý, nếu không có quyền và sự bảo vệ thích hợp.Euronews Next đã chọn ra năm rủi ro quan trọng của trí tuệ nhân tạo (AI) trong số hơn 700 rủi ro được tổng hợp trong cơ sở dữ liệu mới của MIT FutureTech.
THÔNG TIN LIÊN HỆ
SDT: 0977383456
EMAIL: kbtech.technology@gmail.com
WEBSITE : kbtech.com.vn
ĐĂNG KÝ ZALO OA : dangkyzalooa.com