Google công bố mô hình AI Gemini nhanh hơn, hiệu quả hơn

Google công bố mô hình AI Gemini nhanh hơn, hiệu quả hơn

Google đã tạo nên làn sóng với việc phát hành Gemini 2.5 vào tháng trước, vươn lên dẫn đầu bảng xếp hạng AI sau khi trước đó phải vật lộn để theo kịp những đối thủ như OpenAI. Mô hình thử nghiệm đầu tiên đó chỉ là khởi đầu. Google đang triển khai AI cải tiến của mình ở nhiều nơi hơn trong hệ sinh thái, từ Vertex AI dành cho nhà phát triển đến ứng dụng Gemini dành cho người tiêu dùng.

Các mô hình Gemini đã phát triển rất nhanh, khiến việc nắm bắt đội hình dự định của Google trở nên khó khăn. Tuy nhiên, mọi thứ đang dần trở nên rõ ràng khi công ty bắt đầu chuyển các sản phẩm của mình sang nhánh mới. Tại hội nghị Google Cloud Next, công ty đã công bố tính khả dụng ban đầu của Gemini 2.5 Flash. Mô hình này dựa trên cùng một mã với Gemini 2.5 Pro, nhưng có tốc độ xử lý nhanh hơn và chi phí thấp hơn.

Google công bố mô hình AI Gemini nhanh hơn, hiệu quả hơn

Gemini 2.5 Flash hiện chưa xuất hiện trong ứng dụng Gemini mà được khởi đầu trên nền tảng phát triển Vertex AI. Việc phát hành rộng rãi bản thử nghiệm của Pro đã giúp Google thu thập dữ liệu và theo dõi cách người dùng tương tác với mô hình mới, từ đó hỗ trợ phát triển 2.5 Flash.

Phiên bản Flash của Gemini nhỏ hơn bản Pro, mặc dù Google không tiết lộ số lượng tham số cụ thể. Các mô hình Flash cung cấp phản hồi nhanh hơn cho các lời nhắc đơn giản, đồng thời giúp giảm chi phí. Gemini 2.5 Pro (Thử nghiệm) là mô hình đầu tiên áp dụng tư duy động — kỹ thuật cho phép mô hình điều chỉnh mức độ lý luận mô phỏng trong câu trả lời. 2.5 Flash cũng áp dụng tư duy động, nhưng ở mức độ tiên tiến hơn.

Theo chia sẻ từ Tulsee Doshi của Google, Gemini 2.5 Pro (Thử nghiệm) vẫn có xu hướng “suy nghĩ quá mức” khi phản hồi các truy vấn đơn giản. Kế hoạch tiếp theo là cải thiện tư duy động cho bản phát hành chính thức, đồng thời trao cho nhà phát triển nhiều quyền kiểm soát hơn với tính năng này. Điều đó hiện đang được hiện thực hóa với Gemini 2.5 Flash, bao gồm khả năng “lý luận động và có thể kiểm soát”.

Các mô hình Gemini mới nhất sẽ tự động chọn “ngân sách suy nghĩ” dựa trên độ phức tạp của lời nhắc, từ đó giúp giảm thời gian xử lý và tăng tốc độ phản hồi của 2.5 Flash. Nhà phát triển có thể điều chỉnh ngân sách này để tối ưu chi phí và hiệu suất khi cần. Ngoài ra, các mô hình Gemini 2.5 sẽ được điều chỉnh có giám sát và lưu trữ ngữ cảnh trên Vertex AI trong thời gian tới.

Bên cạnh sự ra mắt của Gemini 2.5 Flash, mô hình Pro lớn hơn cũng đảm nhận một vai trò mới. Mô hình Gemini mạnh nhất hiện nay đang vận hành công cụ Nghiên cứu sâu, trước đây sử dụng Gemini 2.0 Pro. Nghiên cứu sâu cho phép khám phá chuyên sâu một chủ đề bằng cách nhập lời nhắc, sau đó tác nhân sẽ truy cập Internet để thu thập thông tin và tổng hợp thành báo cáo chi tiết.

Google công bố mô hình AI Gemini nhanh hơn, hiệu quả hơn

Google cho biết việc nâng cấp lên Gemini 2.5 đã nâng cao độ chính xác và tính hữu ích của Nghiên cứu sâu. Các biểu đồ minh họa cho thấy sự vượt trội của Gemini 2.5 Pro so với công cụ tương đương của OpenAI, dựa trên đánh giá người dùng với tỷ lệ ưu tiên hơn 2-1 cho các báo cáo do Gemini tạo ra.

Hiện tại, Deep Research có thể sử dụng hạn chế trên các tài khoản miễn phí, tuy nhiên phiên bản dùng Gemini 2.5 Pro chỉ dành riêng cho người đăng ký Gemini Advanced. Dự kiến trong thời gian không xa, toàn bộ mô hình trong ứng dụng Gemini sẽ chuyển sang nhánh 2.5. Nhờ lý luận động và các cải tiến phần cứng như TPU mới, Google đang tiến gần hơn tới mục tiêu giảm chi phí vận hành AI – một bước quan trọng để hướng tới tính bền vững và lợi nhuận trong lĩnh vực trí tuệ nhân tạo.

THÔNG TIN  LIÊN HỆ 

SDT: 0977383456 

EMAIL:    kbtech.technology@gmail.com 

WEBSITE   :   kbtech.com.vn 

ĐĂNG KÝ ZALO OA  : dangkyzalooa.com

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *