AMD ra mắt mô hình AI đầu tiên: Một bước đột phá không ngờ

AMD vừa chính thức gia nhập cuộc đua AI với AMD OLMo, mô hình ngôn ngữ lớn (LLM) mã nguồn mở đầu tiên của hãng. Với 1 tỷ tham số, OLMo được huấn luyện trước trên GPU AMD Instinct MI250, hứa hẹn mang đến khả năng suy luận, tuân theo chỉ dẫn và tương tác trò chuyện vượt trội.

Việc mở mã nguồn OLMo, bao gồm dữ liệu, trọng số và quy trình huấn luyện, không chỉ củng cố vị thế của AMD trong lĩnh vực AI mà còn trao quyền cho khách hàng và cộng đồng phát triển. Các nhà phát triển có thể tự do sao chép, tùy chỉnh và phát triển dựa trên OLMo, mở ra tiềm năng đổi mới rộng lớn. Bên cạnh việc triển khai trong trung tâm dữ liệu, OLMo còn tương thích với máy tính cá nhân AMD Ryzen AI được trang bị bộ xử lý thần kinh (NPU), cho phép các nhà phát triển tận dụng sức mạnh AI ngay trên thiết bị cá nhân.

1731039987153.png

OLMo được huấn luyện trên tập dữ liệu khổng lồ 1,3 nghìn tỷ token, sử dụng 16 nodes, mỗi nodes gồm 4 GPU AMD Instinct MI250 (tổng cộng 64 GPU). Quá trình huấn luyện diễn ra theo ba bước:

  1. AMD OLMo 1B ban đầu: Huấn luyện trên một phần của Dolma v1.7, tập trung vào dự đoán token tiếp theo để nắm bắt các mẫu ngôn ngữ và kiến thức chung.
  2. Phiên bản Fine-tuned (SFT): Huấn luyện trên tập dữ liệu Tulu V2 ở giai đoạn đầu và các tập dữ liệu như OpenHermes-2.5, WebInstructSub, và Code-Feedback ở giai đoạn sau, nhằm cải thiện khả năng tuân theo chỉ dẫn và hiệu suất trong các tác vụ khoa học, lập trình và toán học.
  3. Phiên bản DPO (Direct Preference Optimization): Được tinh chỉnh dựa trên phản hồi của con người bằng tập dữ liệu UltraFeedback, giúp ưu tiên các kết quả phù hợp với mong muốn của người dùng.

Kết quả thử nghiệm nội bộ cho thấy OLMo vượt trội so với các mô hình mã nguồn mở cùng kích thước như TinyLlama-1.1B, MobiLlama-1B, và OpenELM-1_1B. Phiên bản SFT hai giai đoạn đạt mức tăng độ chính xác đáng kể, với điểm MMLU tăng 5,09% và GSM8k tăng 15,32%. Phiên bản OLMo 1B SFT DPO cuối cùng vượt trội hơn các mô hình khác ít nhất 2,60% trung bình trên các tiêu chí đánh giá.

1731040002633.png

1731040008645.png

Trong các bài kiểm tra tuân theo chỉ dẫn như AlpacaEval 2, OLMo đạt tỷ lệ thắng cao hơn đối thủ với mức tăng +3,41% và +2,29%. Trong bài kiểm tra MT-Bench về khả năng trò chuyện, phiên bản SFT DPO đạt hiệu suất cao hơn đối thủ gần nhất 0,97%.

AMD cũng đã kiểm tra OLMo trên các tiêu chuẩn AI có trách nhiệm như ToxiGen (độc hại), crows_pairs (thiên lệch) và TruthfulQA-mc2 (trung thực). Kết quả cho thấy OLMo có hiệu quả tương đương với các mô hình khác trong việc xử lý các vấn đề đạo đức và trách nhiệm của AI. Với những kết quả ấn tượng này, AMD OLMo hứa hẹn sẽ là một đối thủ đáng gờm trong lĩnh vực mô hình ngôn ngữ lớn.

1731040016765.png

1731040023874.png 

Nguồn: https://vnreview.vn/threads/hang-chip-amd-bat-ngo-tung-ra-mo-hinh-ai-dau-tien.49728/

Bài viết liên quan

About Tùng Lâm 13992 Articles
Xin chào, mình là Tùng Lâm hiện đang làm Marketer tại Web Đánh Giá, chịu trách nhiệm trong việc phát triển các bài viết trên trang web này. Mình thích chia sẻ những kiến thức công nghệ và đam mê trải nghiệm những sản phẩm mới. Cám ơn các bạn đã đọc, theo dõi mình ở những trang mạng xã hội khác nhé!

Be the first to comment

Leave a Reply

Your email address will not be published.


*