Google đang sử dụng Claude của Anthropic để cải thiện AI Gemini của mình

Google đang sử dụng Claude của Anthropic để cải thiện AI Gemini của mình

Theo thư từ nội bộ mà TechCrunch xem được, các nhà thầu đang nỗ lực cải thiện AI Gemini của Google đang so sánh câu trả lời của AI này với kết quả do mô hình Claude, đối thủ cạnh tranh của Anthropic, tạo ra.

Khi được TechCrunch liên hệ để yêu cầu bình luận, Google không trả lời liệu họ có được phép sử dụng Claude trong cuộc thử nghiệm với Gemini hay không.

Khi các công ty công nghệ chạy đua để xây dựng các mô hình AI tốt hơn, hiệu suất của các mô hình này thường được đánh giá so với đối thủ cạnh tranh, thường bằng cách chạy các mô hình của riêng họ thông qua các tiêu chuẩn của ngành thay vì để các nhà thầu tỉ mỉ đánh giá phản hồi AI của đối thủ cạnh tranh.

Google đang sử dụng Claude của Anthropic để cải thiện AI Gemini của mình

Các nhà thầu làm việc trên Gemini được giao nhiệm vụ đánh giá độ chính xác của các đầu ra của mô hình phải chấm điểm cho mỗi phản hồi mà họ thấy theo nhiều tiêu chí, như tính trung thực và tính dài dòng. Các nhà thầu được cho tối đa 30 phút cho mỗi lần nhắc để xác định câu trả lời của ai tốt hơn, của Gemini hay của Claude, theo thư từ mà TechCrunch đã xem.

Các nhà thầu gần đây bắt đầu nhận thấy các tham chiếu đến Claude của Anthropic xuất hiện trong nền tảng Google nội bộ mà họ sử dụng để so sánh Gemini với các mô hình AI không tên khác, thư từ cho thấy. Ít nhất một trong những kết quả được trình bày cho các nhà thầu Gemini, được TechCrunch xem, nêu rõ: “Tôi là Claude, do Anthropic tạo ra.”

Một cuộc trò chuyện nội bộ cho thấy các nhà thầu nhận thấy phản hồi của Claude dường như nhấn mạnh đến vấn đề an toàn hơn Gemini. “Cài đặt an toàn của Claude là nghiêm ngặt nhất” trong số các mô hình AI, một nhà thầu đã viết. Trong một số trường hợp, Claude sẽ không phản hồi các lời nhắc mà nó coi là không an toàn, chẳng hạn như nhập vai một trợ lý AI khác. Trong một trường hợp khác, Claude tránh trả lời lời nhắc, trong khi phản hồi của Gemini bị đánh dấu là “vi phạm an toàn nghiêm trọng” vì bao gồm “khỏa thân và trói buộc”.

Google đang sử dụng Claude của Anthropic để cải thiện AI Gemini của mình

Các điều khoản dịch vụ thương mại của Anthropic cấm khách hàng truy cập Claude “để xây dựng sản phẩm hoặc dịch vụ cạnh tranh” hoặc “đào tạo các mô hình AI cạnh tranh” mà không có sự chấp thuận từ Anthropic. Google là nhà đầu tư lớn vào Anthropic.

Shira McNamara, người phát ngôn của Google DeepMind, đơn vị điều hành Gemini, không trả lời — khi được TechCrunch hỏi — liệu Google đã nhận được sự chấp thuận của Anthropic để truy cập Claude hay chưa. Khi được liên lạc trước khi công bố, một người phát ngôn của Anthropic đã không bình luận cho đến thời điểm báo chí đưa tin.

McNamara cho biết DeepMind có “so sánh kết quả đầu ra của mô hình” để đánh giá nhưng không đào tạo Gemini về các mô hình Anthropic.

“Tất nhiên, theo thông lệ tiêu chuẩn của ngành, trong một số trường hợp, chúng tôi so sánh kết quả đầu ra của mô hình như một phần của quy trình đánh giá của mình”, McNamara cho biết. “Tuy nhiên, bất kỳ gợi ý nào cho rằng chúng tôi đã sử dụng các mô hình Anthropic để đào tạo Gemini đều không chính xác”.

Tuần trước, TechCrunch đưa tin độc quyền rằng các nhà thầu của Google đang làm việc trên các sản phẩm AI của công ty hiện đang được yêu cầu đánh giá phản hồi AI của Gemini trong các lĩnh vực nằm ngoài chuyên môn của họ. Thư từ nội bộ bày tỏ mối lo ngại của các nhà thầu rằng Gemini có thể tạo ra thông tin không chính xác về các chủ đề cực kỳ nhạy cảm như chăm sóc sức khỏe.

nguồn: techcrunch.com

THÔNG TIN  LIÊN HỆ 

SDT: 0977383456 

EMAIL:    kbtech.technology@gmail.com 

WEBSITE   :   kbtech.com.vn 

ĐĂNG KÝ ZALO OA  : dangkyzalooa.com

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *