Heboh! DeepSeek AI Kembangkan Model R1 Hanya Rp4,8 Miliar, Jauh Lebih Murah dari Pesaing AS

AIOTrade App AIOTrade App

AIOTRADE

Trading Autopilot menggunakan teknologi Artificial Intelligence (AI) yang membantu Anda melakukan trading di market spot (Bukan Future) secara otomatis di Binance & Bitget dengan cepat, mudah, dan efisien.

Binance Bitget

Mengapa Trading Crypto Menggunakan Aio Trade?

Aio Trade cocok digunakan untuk semua kalangan, baik Trader Pemula, Profesional, maupun Investor.

24/7 Trading

Aio Trade bekerja sepanjang waktu tanpa henti.

Cepat & Efisien

Menganalisa kondisi pasar secara otomatis.

Strategi AI

Menggunakan AI untuk strategi profit maksimal.

Fitur Timeframe

Memantau harga sesuai timeframe pilihan.

Manajemen Risiko

Mengelola modal otomatis untuk minim risiko.

Averaging & Grid

Teknik Averaging & Grid dioptimalkan AI.

Featured Image

Pengembangan Kecerdasan Buatan oleh DeepSeek dengan Biaya Rendah

Pengembang kecerdasan buatan (AI) asal Tiongkok, DeepSeek, mengungkapkan bahwa biaya pelatihan model R1-nya hanya sebesar USD 294.000 atau setara Rp 4,8 miliar. Angka ini jauh lebih rendah dibandingkan biaya yang dikeluarkan oleh perusahaan pesaing di Amerika Serikat. Data ini muncul dalam sebuah makalah yang akan memicu kembali diskusi tentang posisi Tiongkok dalam persaingan pengembangan AI.

Makalah tersebut dipublikasikan dalam jurnal akademis Nature, yang menampilkan informasi terkait biaya pelatihan model R1 DeepSeek. Penemuan ini menunjukkan bahwa DeepSeek berhasil menciptakan sistem AI berbiaya rendah, yang berdampak pada pasar global. Investor teknologi mulai merasa khawatir karena model baru ini bisa mengancam dominasi perusahaan seperti Nvidia.

Setelah peluncuran model R1 pada Januari lalu, DeepSeek dan pendirinya, Liang Wenfeng, menghilang dari pandangan publik, kecuali untuk beberapa pembaruan produk. Artikel di Nature menyebutkan bahwa model R1 DeepSeek yang fokus pada penalaran membutuhkan biaya pelatihan sebesar USD 294.000 dan menggunakan 512 chip Nvidia H800. Versi artikel sebelumnya tidak menyertakan informasi ini.

Biaya pelatihan model bahasa besar yang mendukung chatbot AI merujuk pada biaya yang dikeluarkan untuk menjalankan sekumpulan chip canggih selama berminggu-minggu atau berbulan-bulan guna memproses teks dan kode dalam jumlah besar. Sam Altman, CEO OpenAI, menyatakan bahwa pelatihan model dasar telah menghabiskan biaya jauh lebih banyak dari USD 100 juta atau sekitar Rp 1,6 triliun. Meskipun perusahaannya belum memberikan angka rinci untuk rilis apa pun.

Perdebatan Mengenai Chip dan Metode Pelatihan

Beberapa pernyataan DeepSeek tentang biaya pengembangan dan teknologi yang digunakannya telah dipertanyakan oleh perusahaan dan pejabat AS. Chip H800 yang digunakan DeepSeek dirancang oleh Nvidia untuk pasar Tiongkok setelah AS melarang ekspor chip H100 dan A100 yang lebih canggih ke Tiongkok pada Oktober 2022.

Menurut laporan Reuters, para pejabat AS mengatakan bahwa DeepSeek memiliki akses ke sejumlah besar chip H100 yang diperoleh setelah kontrol ekspor AS diterapkan. Namun, Nvidia menyatakan bahwa DeepSeek telah menggunakan chip H800 yang diperoleh secara sah, bukan H100. Dalam dokumen informasi tambahan yang menyertai artikel Nature, DeepSeek untuk pertama kalinya mengakui memiliki chip A100 dan mengatakan telah menggunakannya pada tahap persiapan pengembangan.

"Mengenai penelitian kami pada DeepSeek-R1, kami menggunakan GPU A100 untuk mempersiapkan eksperimen dengan model yang lebih kecil," tulis para peneliti. Setelah fase awal ini, R1 dilatih selama total 80 jam pada kluster 512 chip H800.

Reuters sebelumnya melaporkan bahwa salah satu alasan DeepSeek mampu menarik para pemikir paling cemerlang di Tiongkok adalah karena perusahaan ini merupakan satu dari sedikit perusahaan domestik yang mengoperasikan klaster superkomputer A100.

Teknik Penyaringan dan Distilasi Model

DeepSeek juga menanggapi untuk pertama kalinya, meskipun tidak secara langsung, pernyataan dari penasihat utama Gedung Putih dan tokoh AI AS lainnya pada bulan Januari bahwa mereka secara sengaja menyaring model OpenAI menjadi modelnya sendiri.

DeepSeek secara konsisten melakukan penyaringan atau distilasi karena menghasilkan performa model yang lebih baik, sekaligus jauh lebih murah untuk dilatih dan dijalankan. Ini juga memungkinkan akses yang lebih luas ke teknologi bertenaga AI karena tuntutan sumber daya yang intensif energi pada model tersebut.

Istilah ini merujuk pada teknik yang digunakan satu sistem AI untuk belajar dari sistem AI lain. Dengan demikian, model yang lebih baru dapat meraup keuntungan dari investasi waktu dan daya komputasi yang digunakan untuk membangun model sebelumnya, tetapi tanpa biaya terkait. DeepSeek menyatakan pada Nature bahwa data pelatihan untuk model V3-nya bergantung pada halaman web yang dijelajahi yang berisi sejumlah besar jawaban yang dihasilkan model OpenAI. Hal ini dapat menyebabkan model dasar memperoleh pengetahuan dari model canggih lainnya secara tidak langsung. Namun, mereka mengatakan hal ini tidak disengaja melainkan hanya kebetulan.