Çinli yapay zeka laboratuvarı DeepSeek’in kendi adını taşıyan büyük dil modeli (LLM), ABD’li OpenAI firmasının ChatGPT’sinin en büyük rakiplerinden biri haline gelirken, Silikon Vadisi’ni şaşkınlığa uğrattı.
Bu ay yayınlanan DeepSeek hem son derece hızlı hem de az maliyetle geliştirildi.
OpenAI ve Google gibi önemli oyuncuların yapay zeka modellerine eğitim verileri sağlayan ScaleAI firmasının CEO’su Alexandr Wang, perşembe günü İsviçre’nin Davos kentinde düzenlenen Dünya Ekonomik Forumu’nda (WEF) yaptığı konuşmada DeepSeek’in ürününü “dünyayı sarsacak bir model” diye niteledi.
Çinli teknoloji laboratuvarı, ilk modelinin ardından güçlü muhakeme yeteneğine odaklanan DeepSeek-R1 adlı diğer modelini de yayınladı. Bu model de OpenAI’ın yakın zamanda piyasaya sürdüğü o1 ile rekabet halinde.
Üstelik bu denli güçlü bir araç olmasına rağmen DeepSeek-R1 büyük ölçüde açık kaynaklı olarak yayınlandı. Yani isteyen herkes aracın kodlarına erişebiliyor ve bu kodları kullanarak LLM’i kişiselleştirebiliyor. Eğitim verileri ise patentli.
Öte yandan OpenAI, o1 modelini kapalı olarak piyasaya sürmüştü ve halihazırda sadece kullanıcılara bile aylık 200 dolarlık paketle satıyor.
Bu arada uzmanlar, Çin’in ABD ihracat kontrollerine çip satışı yasaklarına rağmen nasıl kısa sürede böyle güçlü bir model geliştirebildiğini tartışıyor.
Hangi hisse ne kadar kaybetti?
Bu gelişme Wall Street’te dengeleri altüst etti. Nvidia’nın hisseleri yüzde 17 düşerek Ekim ayından bu yana en düşük seviyesine geriledi. Çip üreticileri Broadcom ve Micron Technology’nin hisseleri yüzde 10’dan fazla değer kaybetti. S&P 500 teknoloji sektörü yüzde 5,6 düşerek son dört yılın en büyük günlük kaybını yaşadı. Dow Jones Market Data’ya göre, Pazartesi günü yaşanan bu sert düşüş, toplamda yaklaşık 1 trilyon dolarlık piyasa değerinin silinmesine neden oldu.
DeepSeek’in başarısı, Çinli yapay zeka şirketlerinin ABD’nin son teknoloji çipler üzerindeki artan ihracat kontrolleri yüzünden karşı karşıya olduğu kısıtlamalar göz önüne alındığında daha da dikkat çekici.
R1’in ve son Huawei 5G telefon modellerinin piyasaya sürülmesi, ABD’nin ihracat kontrollerinin amaçlandığı gibi çalışmadığını düşündürüyor. Zira yaptırımlar, Çin’in yeteneklerini zayıflatmaktan ziyade verimliliğe, kaynak havuzunu ve iş birliğini geliştirmeye odaklanarak DeepSeek gibi laboratuvarlar kurmasını sağlamış olabilir.
Yenilikçi yöntemlere başvurdu
MIT Technology Review’a konuşan DeepSeek çalışanı ve Northwestern Üniversitesi’nde bilgisayar bilimi alanında doktora öğrencisi Zihan Wang, Çin’in yaptırımlara karşı yenilikçi yollara başvurmak zorunda kaldığını söylüyor.
Buna göre DeepSeek, R1 modelini oluşturmak için eğitim sürecini yeniden düzenlemek zorunda kaldı. Çünkü çip firması Nvidia’nın Çin pazarı için satmaya izinli olduğu çiplerin performansı, şirketin en iyi ürünlerinin hızının yarısı kadar ediyor. Bu yüzden Çin, Nvidia’dan satın aldığı grafik işlem birimleri (GPU) üzerindeki yükü azaltmak için eğitim sürecini düzenledi.
Diğer bir deyişle, ABD ihracat kontrolleri, R1 geliştiricilerini hesaplama gücü eksikliklerini telafi etmek için daha akıllı, daha enerji verimli algoritmalar oluşturmaya zorladı. ChatGPT’nin eğitim verilerini işlemek için 10.000 Nvidia GPU’ya ihtiyaç duyduğu düşünülüyor. DeepSeek mühendisleri sadece 2.000 GPU ile benzer sonuçlara ulaştıklarını söylüyor.
DeepSeek R1, araştırmacılar tarafından özellikle matematik ve kodlamada karmaşık muhakeme görevlerini yerine getirme becerisiyle övülüyor. Model, o1 tarafından kullanılana benzer bir “düşünce zinciri” yaklaşımı kullanıyor ve bu da sorguları adım adım işleyerek sorunları çözmesine olanak tanıyor.
Microsoft’un AI Frontiers araştırma laboratuvarının baş araştırmacısı Dimitris Papailiopoulos, R1’de kendisini en çok şaşırtan şeyin “mühendislikteki basitlik” olduğunu söylüyor.
“DeepSeek, her mantıksal adımı ayrıntılandırmak yerine doğru yanıtları hedefledi ve yüksek düzeyde etkinliği korurken hesaplama süresini önemli ölçüde azalttı.”
Diğer yapay zeka araçlarını gerçekten geçti mi?
Bağımsız araştırmacıların kıyaslama testlerinde, ilk modellerden biri olan DeepSeek-V3, OpenAI’nin GPT-4o ve Anthropic’in Claude Sonnet 3.5’inin yetenekleriyle eşleşmiş, Meta’nın Llama 3.1 ve Alibaba’nın Qwen2.5 gibi diğer modellerini problem çözme, kodlama ve matematik içeren görevlerde geride bırakmıştı.
Livescience’a göre 20 Ocak’ta yayınlanan R1 ise aynı testlerin çoğunda ChatGPT’nin en son modeli o1’i de geçti. Diğer modellerin maliyetinin çok daha az bir kısmıyla başarılan bu etkileyici performans, modelin yarı açık kaynaklı yapısı ve önemli ölçüde daha az GPU üzerinde eğitilmiş olmasıyla birlikte yapay zeka uzmanlarını hayrete düşürüyor.
OpenAI’nin stratejik ortağı Microsoft’un CEO’su Satya Nadella, 22 Ocak’ta Dünya Ekonomik Forumu’nda yaptığı açıklamada, “Çin’deki gelişmeleri çok ama çok ciddiye almalıyız,” dedi.
Öte yandan bu yeni modelin ne kadarının yararlı bilimsel ve teknik uygulamalara dönüşeceği veya DeepSeek’in modelini kıyaslama testlerinde başarılı olacak şekilde kasten eğitip eğitmediği henüz belli değil.
Bilim insanları ve yapay zeka yatırımcıları gelişmeleri yakından izliyor.
euronews/cnbce