Giới thiệu về mô hình GPT-OSS của OpenAI
Ngày 5/8/2025, OpenAI chính thức giới thiệu GPT-OSS-120B và GPT-OSS-20B, hai mô hình ngôn ngữ mở nguồn với trọng số mở (open-weight) và hiệu năng cao.
Điểm nổi bật:
- Giấy phép Apache 2.0: cho phép sử dụng và chỉnh sửa tự do, kể cả thương mại.
- Hiệu năng vượt trội so với các open model cùng kích thước.
- Tối ưu suy luận và dùng công cụ (tool use) mạnh mẽ.
- Tương thích phần cứng phổ thông:
- 120B chạy trên GPU 80 GB
- 20B chỉ cần 16 GB RAM.
Huấn luyện mô hình GPT-OSS
Các mô hình GPT-OSS được OpenAI huấn luyện bằng kỹ thuật tiền huấn luyện và hậu huấn luyện tiên tiến, tập trung vào khả năng suy luận, tối ưu hiệu suất và tính ứng dụng thực tế trên nhiều môi trường triển khai. Đây là mô hình ngôn ngữ trọng số mở đầu tiên của OpenAI kể từ GPT-2 (2019), sau khi trước đó hãng đã phát hành các mô hình mở như Whisper và CLIP.
Về kiến trúc, GPT-OSS sử dụng Mixture of Experts (MoE) để giảm số tham số hoạt động mỗi token:
- GPT-OSS-120B: 5,1 tỷ tham số hoạt động/token.
- GPT-OSS-20B: 3,6 tỷ tham số hoạt động/token.
Tập dữ liệu huấn luyện chủ yếu là văn bản tiếng Anh chất lượng cao, tập trung vào STEM, lập trình và kiến thức tổng quát, được mã hóa bằng bộ token o200k_harmony (cũng dùng cho o4-mini và GPT-4o).
Giai đoạn hậu huấn luyện bao gồm tinh chỉnh có giám sát và RLHF để căn chỉnh theo OpenAI Model Spec, kết hợp huấn luyện mô hình suy luận theo chuỗi (Chain-of-Thought) và sử dụng công cụ.
Cả hai mô hình hỗ trợ 3 mức suy luận: thấp, trung bình, cao – giúp nhà phát triển linh hoạt cân bằng giữa tốc độ và độ chính xác chỉ bằng thiết lập trong thông báo hệ thống.
Mô hình | Lớp | Tổng số tham số | Tham số đang hoạt động trên mỗi token | Tổng số chuyên gia | Chuyên gia đang hoạt động trên mỗi token | Độ dài ngữ cảnh |
---|---|---|---|---|---|---|
gpt-oss-120b | 36 | 117 tỷ | 5,1 tỷ | 128 | 4 | 128 nghìn |
gpt-oss-20b | 24 | 21 tỷ | 3,6 tỷ | 32 | 4 | 128 nghìn |
Đánh giá hiệu năng mô hình GPT‑OSS
OpenAI đã benchmark GPT‑OSS‑120B và GPT‑OSS‑20B trên các bộ đo học thuật chuẩn để đánh giá lập trình, toán thi đấu, y tế và khả năng dùng công cụ, so sánh trực tiếp với o3, o3‑mini, o4‑mini.
- GPT‑OSS‑120B:
- Vượt o3‑mini và ngang bằng/nhỉnh hơn o4‑mini ở Codeforces, MMLU, HLE và TauBench.
- Nhỉnh hơn o4‑mini ở các bài HealthBench và AIME 2024 & 2025.
- GPT‑OSS‑20B:
- Ngang bằng hoặc vượt o3‑mini trên cùng hệ bài test, dù kích thước nhỏ.
- Đặc biệt mạnh ở toán học thi đấu và nhiệm vụ y tế.
GPT‑OSS‑120B tiệm cận (thậm chí vượt) nhóm mô hình độc quyền cỡ nhỏ trong nhiều kịch bản, còn GPT‑OSS‑20B là phương án gọn nhẹ nhưng hiệu năng cạnh tranh, phù hợp chạy cục bộ và chi phí thấp.
Kết luận
Sự ra mắt GPT-OSS-120B và GPT-OSS-20B đánh dấu một bước ngoặt quan trọng của OpenAI trong việc đưa mô hình ngôn ngữ trọng số mở ra cộng đồng. Với hiệu năng cạnh tranh với các model độc quyền, kiến trúc tối ưu phần cứng, và tiêu chuẩn an toàn nghiêm ngặt, GPT-OSS không chỉ mở ra cơ hội cho doanh nghiệp lớn mà còn trao quyền cho cá nhân, startup và tổ chức nhỏ tiếp cận công nghệ AI tiên tiến.
Bộ đôi này kết hợp sức mạnh suy luận vượt trội, khả năng tùy chỉnh linh hoạt, cùng tính tương thích đa nền tảng, tạo điều kiện để bất kỳ ai cũng có thể xây dựng, triển khai và tối ưu giải pháp AI trên hạ tầng của riêng mình. Trong bối cảnh nhu cầu về AI minh bạch, dân chủ hóa và dễ tiếp cận ngày càng lớn, GPT-OSS trở thành minh chứng cho tầm nhìn của OpenAI: AI mạnh mẽ phải thuộc về mọi người.
Điểm nổi bật | Chi tiết |
---|---|
Mở nguồn, linh hoạt | Giấy phép Apache 2.0, tự do tùy chỉnh và sử dụng |
Hiệu năng cao | gpt-oss-120b ≈ o4-mini; gpt-oss-20b ≈ o3-mini |
Tối ưu phần cứng | GPU 80 GB hoặc thiết bị phổ thông 16 GB RAM |
Tích hợp dễ dàng | Nhiều nền tảng hỗ trợ, từ cloud đến local |
Đảm bảo an toàn | Kiểm tra kỹ và tài liệu rõ ràng giúp tăng độ tin cậy |