OpenAI cắt giảm thời gian thử nghiệm an toàn mô hình AI
OpenAI đã cắt giảm thời gian và nguồn lực dành cho việc thử nghiệm tính an toàn của các mô hình trí tuệ nhân tạo mạnh mẽ của mình, làm dấy lên lo ngại rằng công nghệ này đang bị vội vã tung ra mà không có đủ biện pháp bảo vệ.
Gần đây, các nhân viên và nhóm bên thứ ba chỉ được gia hạn vài ngày để tiến hành “đánh giá”, thuật ngữ dùng để chỉ các bài kiểm tra nhằm đánh giá rủi ro và hiệu suất của mô hình, trên các mô hình ngôn ngữ lớn mới nhất của OpenAI, so với vài tháng trước đó.
Theo tám người hiểu rõ về quy trình thử nghiệm của OpenAI, các cuộc thử nghiệm của công ty khởi nghiệp này đã trở nên kém kỹ lưỡng hơn, do không có đủ thời gian và nguồn lực dành cho việc xác định và giảm thiểu rủi ro, vì công ty khởi nghiệp trị giá 300 tỷ đô la này đang chịu áp lực phải nhanh chóng phát hành các mô hình mới và duy trì lợi thế cạnh tranh.
“Chúng tôi đã tiến hành thử nghiệm an toàn kỹ lưỡng hơn khi [công nghệ] còn ít quan trọng hơn”, một người hiện đang thử nghiệm mô hình o3 sắp ra mắt của OpenAI, được thiết kế cho các nhiệm vụ phức tạp như giải quyết vấn đề và lập luận, cho biết.
Họ nói thêm rằng khi LLM trở nên có năng lực hơn, “khả năng vũ khí hóa” công nghệ sẽ tăng lên. “Nhưng vì nhu cầu về nó cao hơn, họ muốn nó ra mắt nhanh hơn. Tôi hy vọng đây không phải là một bước đi sai lầm thảm khốc, nhưng nó là liều lĩnh. Đây là công thức cho thảm họa.”
Những người hiểu rõ vấn đề này cho biết, sự eo hẹp về thời gian là do “áp lực cạnh tranh”, khi OpenAI chạy đua với các nhóm công nghệ lớn như Meta và Google cùng các công ty khởi nghiệp bao gồm xAI của Elon Musk để tận dụng công nghệ tiên tiến.
Không có tiêu chuẩn toàn cầu nào cho thử nghiệm an toàn AI, nhưng từ cuối năm nay, Đạo luật AI của EU sẽ buộc các công ty phải tiến hành thử nghiệm an toàn trên các mô hình mạnh nhất của họ. Trước đây, các nhóm AI, bao gồm OpenAI, đã ký cam kết tự nguyện với chính phủ ở Anh và Hoa Kỳ để cho phép các nhà nghiên cứu tại các viện an toàn AI thử nghiệm các mô hình.
OpenAI đã thúc đẩy việc phát hành mô hình o3 mới của mình sớm nhất là vào tuần tới, cho một số người thử nghiệm chưa đầy một tuần để thực hiện kiểm tra an toàn, những người quen thuộc với vấn đề này cho biết. Ngày phát hành này có thể thay đổi.
Trước đây, OpenAI đã cho phép một vài tháng để thử nghiệm an toàn. Đối với GPT-4, được ra mắt vào năm 2023, những người thử nghiệm có sáu tháng để tiến hành đánh giá trước khi phát hành, những người hiểu rõ vấn đề này cho biết.
Một người đã thử nghiệm GPT-4 cho biết một số khả năng nguy hiểm chỉ được phát hiện sau hai tháng thử nghiệm. “Họ không hề ưu tiên an toàn công cộng chút nào”, họ nói về cách tiếp cận hiện tại của OpenAI.
Daniel Kokotajlo, cựu nghiên cứu viên của OpenAI, hiện là người đứng đầu nhóm phi lợi nhuận Dự án Tương lai AI, cho biết: “Không có quy định nào nói rằng [các công ty] phải thông báo cho công chúng về tất cả các khả năng đáng sợ… và họ cũng chịu rất nhiều áp lực phải chạy đua với nhau nên họ sẽ không ngừng cải thiện khả năng của chúng”.
Trước đây, OpenAI đã cam kết xây dựng các phiên bản tùy chỉnh cho các mô hình của mình để đánh giá khả năng sử dụng sai mục đích, chẳng hạn như liệu công nghệ của họ có thể giúp làm cho vi-rút sinh học dễ lây truyền hơn hay không.
Phương pháp này đòi hỏi nhiều nguồn lực đáng kể, chẳng hạn như tập hợp các tập dữ liệu thông tin chuyên ngành như virus học và đưa vào mô hình để đào tạo nó theo một kỹ thuật gọi là tinh chỉnh.
Nhưng OpenAI chỉ thực hiện điều này một cách hạn chế, bằng cách lựa chọn tinh chỉnh một mô hình cũ, kém khả năng hơn thay vì những mô hình mạnh mẽ và tiên tiến hơn.
Báo cáo về hiệu suất và an toàn của công ty khởi nghiệp trên o3-mini, mô hình nhỏ hơn được phát hành vào tháng 1, có đề cập đến cách mô hình GPT-4o trước đó của công ty chỉ có thể thực hiện một nhiệm vụ sinh học nhất định khi được tinh chỉnh. Tuy nhiên, OpenAI chưa bao giờ báo cáo cách các mô hình mới hơn của mình, bao gồm o1 và o3-mini, cũng sẽ đạt điểm nếu được tinh chỉnh.
“Thật tuyệt khi OpenAI đặt ra một tiêu chuẩn cao như vậy bằng cách cam kết thử nghiệm các phiên bản tùy chỉnh của các mô hình của họ. Nhưng nếu họ không thực hiện cam kết này, công chúng xứng đáng được biết”, Steven Adler, cựu nhà nghiên cứu an toàn của OpenAI, người đã viết một blog về chủ đề này, cho biết.
Ông nói thêm: “Việc không thực hiện các thử nghiệm như vậy có thể có nghĩa là OpenAI và các công ty AI khác đang đánh giá thấp những rủi ro tồi tệ nhất của mô hình của họ”.
Những người quen thuộc với các bài kiểm tra như vậy cho biết họ phải chịu chi phí rất lớn, chẳng hạn như thuê chuyên gia bên ngoài, tạo các tập dữ liệu cụ thể cũng như sử dụng các kỹ sư và sức mạnh tính toán nội bộ.
OpenAI cho biết họ đã đạt được hiệu quả trong các quy trình đánh giá của mình, bao gồm các bài kiểm tra tự động, dẫn đến việc rút ngắn thời gian. Họ nói thêm rằng không có công thức thống nhất nào cho các phương pháp tiếp cận như tinh chỉnh, nhưng họ tự tin rằng các phương pháp của mình là tốt nhất có thể và được minh bạch trong các báo cáo của mình.
Báo cáo cho biết thêm rằng các mô hình, đặc biệt là các mô hình ứng phó với rủi ro thảm khốc, đã được thử nghiệm kỹ lưỡng và giảm thiểu để đảm bảo an toàn.
Johannes Heidecke, giám đốc hệ thống an toàn, cho biết: “Chúng tôi có sự cân bằng tốt giữa tốc độ di chuyển và mức độ kỹ lưỡng”.
Một mối quan ngại khác được nêu ra là các thử nghiệm an toàn thường không được tiến hành trên các mô hình cuối cùng được phát hành cho công chúng. Thay vào đó, chúng được thực hiện trên các điểm kiểm tra trước đó được cập nhật sau đó để cải thiện hiệu suất và khả năng, với các phiên bản “gần hoàn thiện” được tham chiếu trong các báo cáo an toàn hệ thống của OpenAI.
Một cựu nhân viên kỹ thuật của OpenAI cho biết: “Việc phát hành một mô hình khác với mô hình mà bạn đã đánh giá là một hành vi không tốt”.
OpenAI cho biết các điểm kiểm tra “về cơ bản giống hệt” với những gì đã được triển khai vào cuối cùng
THÔNG TIN LIÊN HỆ
SDT: 0977383456
EMAIL: kbtech.technology@gmail.com
WEBSITE : kbtech.com.vn
ĐĂNG KÝ ZALO OA : dangkyzalooa.com