OpenAI yakalama yarışı: Anthropic, 5 milyar dolarlık dev bir AI modeli planlıyor

amerikali

Yeni Üye


  1. OpenAI yakalama yarışı: Anthropic, 5 milyar dolarlık dev bir AI modeli planlıyor

2021 yılında OpenAI’den ayrılanlar tarafından kurulan AI araştırma şirketi Anthropic’in şu anda en güçlü AI sistemlerinden on kat daha güçlü bir model planladığı söyleniyor. BT dergisi TechCrunch’ta bulunan üçüncü tur finansman için iş belgelerine göre Anthropic, önümüzdeki iki yıl içinde beş milyar ABD dolarına kadar gelir elde etmeyi bekliyor. Bilgi, Anthropic’in C Serisi finansmanı için bir satış konuşmasından geliyor – bir yatırımcı dahili bilgileri medyaya isimsiz olarak sızdırmış olabilir veya şirket dikkatleri üzerine çekmek için bunu kendisi sızdırmıştır.


AI pazar lideri: 2025/26’dan itibaren liderlik artık yakalanamaz


Geçici çalışma adı Claude-Next (önceki ChatGPT muadili Claude’den sonra) ile bir sınır modelinin geliştirilmesinin önümüzdeki bir buçuk yıl içinde yaklaşık bir milyar ABD dolarına mal olması bekleniyor. Şirketin satış konuşmasına göre, Frontier 10 bölgesinde olacak. 25 Kayan Nokta İşlemleri (FLOP’lar), bugün bilinen diğer sistemlerden birkaç kat daha yüksektir, ancak bu tür bilgiler GPT-4 için mevcut değildir. Eğitim, “birkaç on binlerce GPU” içeren bir bilgi işlem kümesinde gerçekleştirilmelidir. Şirketin, 2025/2026’dan itibaren geliştirme döngülerinde, büyük AI modelleriyle lider olanların liderliğini telafi etmenin imkansız olacağını söylediği aktarılıyor (satış sunumundaki ifadeler şöyle olmalı: “İnanıyoruz ki En iyi 2025/26 modellerini eğiten şirketler, sonraki döngülerde kimsenin yetişemeyeceği kadar ileride olacaktır.”)

Anthropic, AI güvenliğine bağlıdır: Kendi ifadelerine göre, OpenAI yan ürünü, büyük teknoloji gruplarının (özellikle Microsoft OpenAI muhtemelen kastedilmektedir) mevcut AI gelişimiyle ilgili güvenlik endişelerinden kaynaklanmıştır. Görev beyanına göre, Anthropic’in kurucuları, önümüzdeki on yılın teknik ilerlemelerinin büyük bir AI devrimini tetikleyeceğini ve bu ilerlemenin, şirketleri ve ülkeleri, ayak uyduramayacakları zaman baskısı altında güvensiz AI sistemlerini çalıştırmaya teşvik eden bir aksamaya neden olabileceğini varsayıyor.


Yapay Zeka Afet Konuşması


Şirket, böyle bir durumda iki dengesizliğin akla yatkın olduğunu düşünüyor: Ya AI sistemleri “stratejik olarak tehlikeli hedefler peşinde koşabilir” ya da sistemler zararsız hatalar yapabilir – ancak ciddi bir etkiye sahip oldukları durumlarda. Kuruculara göre, şirketin web sitesinde belirtildiği gibi her ikisi de “bir felakete yol açabilir”. “Yapay zeka sistemlerini iyi davranmaları için nasıl eğiteceğimizi bilmiyoruz” diyor, korkutucu olduğu kadar canlandırıcı bir doğrudanlıkla.

Antropik araştırmacılar, büyük AI modelleri olan ve güvenliği ilk sıraya koyan sistemleri tanımlamak için sınır modellerini kullanır. Yüz milyarlarca parametreye sahip büyük yapay zeka modellerinin temel güvenlik risklerinden biri, sınırlı kapsam ve daha sınırlı yeteneklere sahip amaca yönelik oluşturulmuş daha küçük sistemlerin aksine, öngörülemez, kontrol edilemez ve açıklanamaz davranışlardır. Anthropic, çalışmalarını hizalama araştırması, otomatikleştirilmiş kırmızı ekip oluşturma, anayasal yapay zeka, önyargı giderme, insan geri bildirimiyle pekiştirmeli öğrenme üzerine odaklıyor ve amaç, sağlam, yardımcı, zararsız yapay zeka sistemleri. Ana model Claude öncelikle dahili olarak güvenlik araştırması için kullanılır. Genel dağıtımlar en yüksek önceliğe sahip değildir.


Düzenleme gerekli – diğerleri için


Afet iletişimi işi canlandırıyor – kurucusu ve CEO’su Sam Altman, CTO Mina Murati ve diğer yüksek rütbeli çalışanlarının yaklaşık bir aydır GPT-4’ün piyasaya sürülmesinden bu yana bunun gibi büyük yapay zeka modellerinin ne kadar tehlikeli olduğu hakkında paradoksal bir şekilde alenen konuştuğu OpenAI’de olduğu gibi. Daha önce tanıttıkları GPT-4 potansiyeldir. Aynı zamanda şirket, bulanık blog girişleri ve anlamsız teknik raporlarla eleştirmenleri yatıştırmaya çalışıyor. Yürütüldüğü iddia edilen güvenlik önlemleri hakkında herhangi bir gerçek içermez, yalnızca API müşterilerinin şirketin iyi niyetine olan güvenini çağrıştırır ve modellerinin tamamen kontrolünde olmadıklarını açıkça kabul eder. Diğer şeylerin yanı sıra, 20 Mart 2023’teki bir güvenlik sızıntısı, birkaç ülkenin OpenAI’ye karşı güvenlik açıkları nedeniyle soruşturmalar açmasına ve İtalya gibi bazı ülkelerin OpenAI’nin ana ürününün kullanımına ülke yasakları getirmeye başlamasına yol açtı.

Aynı zamanda OpenAI, dolaylı zararlar için sorumluluk kabul etmez veya platform ortakları Microsoft ve diğer BigTech sağlayıcıları Avrupa düzeyinde yasama süreçlerini etkilemeye çalışır (Brüksel’den bir lobi izleme grubu tarafından “Makinedeki Lobbying Ghost” çalışmasına bakın). müşterilere ve iş ortaklarına aktarılan riski azaltmak. Varoluşsal riskler, Nisan başında yayınlanan yapay zeka güvenliğiyle ilgili bir blog yazısında hiçbir rol oynamaz. Altman ve Murati, hükümet düzenlemesi çağrısında bulunurken, dağıtım modlarının “kademeli öğrenme” olduğunu savunarak, uyum yerine pazara sürüm süresine öncelik veriyor gibi görünüyor. Aslında, kullanıcı verileri sızdırılır ve birkaç hafta boyunca ABD sunucularında saklanır, şirketin kendisi veya kamu tarafından bilinmeyen üçüncü taraflarca işlenir. Verilere ne olduğu ve OpenAI’nin modellerini hangi biçimde beslediği, eski hayırseverlik sahnelerinin arkasındaki teknik hemen hemen her şey gibi bilinmiyor.

ayrıca oku

Daha fazla göster



daha az göster



Antropik Yatırımcılar İmzalı Açık Mektup


Bu arka plana karşı, Anthropic’in yapay zeka güvenliğine bağlılığı mantıklıdır ve OpenAI’nin U-Dönüş kurumsal felsefesine (idealist kar amacı gütmeyen kuruluştan hiper sermayeli kapalı kaynak stag’a) karşı bir nokta olarak okunur. Bununla birlikte, bir sorun var: Anthropic’i finansal olarak destekleyen birkaç teknoloji devi, Life of Life Enstitüsü tarafından yayınlanan ve “GPT-4 kadar güçlü” büyük yapay zeka modellerinin geliştirilmesine ara verilmesini talep eden Açık Mektubu imzalayanlar arasında yer alıyor. . : eski Skype mühendisi Jaan Tallinn ve birkaç üst düzey Google çalışanı gibi.

Google ayrıca kısa süre önce Anthropic’e 300 milyon ABD doları yatırım yaptı ve Claude modelini kendi ürünlerine entegre etmeyi planlıyor. Daha büyük modeller üzerindeki tüm çalışmalar için talep edilen geçici geliştirme duruşu, TechCrunch tarafından bildirilen güvenlik bilincine sahip OpenAI rakibinin yakın gelecekte yetişme yarışını yoğunlaştırma ve rekor sürede çok daha güçlü modeller inşa etme planlarıyla çelişiyor.

Bir milyar dolarlık risk sermayesi


Anthropic, başlangıcından bu yana risk sermayesinde yaklaşık 1 milyar dolar topladı ve bildirildiğine göre yakın tarihli bir finansman turunda 300 milyon dolar daha toplamak istiyor. Bu, şirketin toplam sermayesini 4 milyar dolarlık tahmini şirket değerinde 1,3 milyar dolara çıkarır. Frontier, “kendi kendine öğrenen AI için yeni nesil bir algoritma”dır ve eğitim için Anthropic tarafından geliştirilen “Constitutional AI” adlı yöntem kullanılır. Bu temel teknik, AI sistemlerini, bir dizi yönerge ve yol gösterici ilkeyi izleyerek, sorulara ve görevlere öngörülebilir bir şekilde yanıt verecek şekilde insan niyetleriyle uyumlu hale getirmeyi amaçlar.

Anthropic, ana ürünü Claude’u Mart 2023’te kapalı bir beta aşamasından sonra piyasaya sürdü ve başlangıçta 15 iş ortağının kullanımına sundu. Claude’un rakibi ChatGPT’den daha zararsız sonuçlar ürettiği, konuşmaları yürütmenin daha kolay ve daha kontrol edilebilir olduğu söyleniyor. Anthropic, yasal belge özetleme ve analizi, tıbbi kayıt işleme, müşteri hizmetleri e-postası ve sohbeti, B2B tüketici modelleri, belge ve içeriğin düzenlenmesi ve oluşturulmasının yanı sıra doğal arama işlevleri dahil olmak üzere bir düzine kadar farklı sektörde ticari bir temel kazanmayı amaçlamaktadır. dil, Soru-Cevap ve sohbet robotlarıyla danışma, iş tanımları ve konuşma analizi için insan kaynaklarında, terapi ve koçlukta, sanal asistanlarla ve eğitim sektöründe. Bu alanlardan bazıları yapay zekanın yalnızca insan gözetimi altında kullanımına izin vermelidir.

OpenAI’den bir çatal olarak antropik


Anthropic’in genel müdürü Dario Amodei, OpenAI’nin giderek artan ticari yönelimi konusundaki anlaşmazlıkların ardından şirketle yollarını ayırdı ve kar amacı gütmeyen bir kuruluş olarak kendi girişimini kurdu. Eski OpenAI politika lideri Jack Clark da dahil olmak üzere bir dizi OpenAI çalışanı 2021’de ana gemiden ayrıldı. Clark, diğer şeylerin yanı sıra, dünya çapındaki karar vericiler için dünya çapındaki yapay zeka geliştirme trendlerini sayısal ve kanıta dayalı bir şekilde açıklayan Stanford Üniversitesi’nin yıllık bağımsız AI Endeksi Raporu’nun yardımcı editörüdür.

Nisan ayında yayınlanan 2022 tarihli veritabanı için AI Endeksi 2023, AI geliştirmenin ABD ve Çin’deki büyük veri ve platform gruplarında yoğunlaşması nedeniyle artan tekel oluşumu risklerine işaret ediyor ve Çin araştırmalarının büyük liderliğini gösteriyor. kurumlar. Geçen yıl, AI girişimlerine yapılan özel yatırımlar yaklaşık yüzde 40 oranında düştü – rapor, düşmemek için temel teknolojiye mümkün olan en kısa sürede daha fazla yatırım yapmak için özellikle Almanya ve Avrupa için bir uyandırma çağrısı gibi görünüyor. yakalanamaz bir biriktirme listesine ve bağımlılık cihazlarına.

ayrıca oku

Daha fazla göster



daha az göster



Ticarileştirme ve Yatırımcılar


Anthropic, ilk bir buçuk yıl boyunca araştırmaya odaklanmıştı ve ilk iki finansman turundan elde edilen devasa tohum finansmanının (bir yıldan kısa bir sürede 750 milyon dolar, derin teknoloji finansmanında bir rekor) ötesinde, kamuoyunun gözü pek gözükmüyordu. göründü. TechCrunch’ın satış konuşmasına göre (elbette yatırımcıları hedefliyor), şirket Eylül 2022’den beri ticarileştirmeye çalışıyor. Anthropic, “temel yetkinliğe ve markaya uyan” pazar lansmanı ve ilk ürün uzmanlığı için bir strateji geliştirdi. Kabul önümüzdeki on iki ay içinde bekleniyor.

Sam Bankman-Fried, çöken kripto para borsası FTX’in kardeş şirketi Alameda Research Ventures aracılığıyla Anthropic’in ilk yatırımcıları arasında yer aldı. Alameda, sessiz bir yatırımcı olarak oy hakkına sahip değildi, ancak ikinci tur finansmanı (B Serisi) 580 milyon $ ile yönetti. Anthropic görünüşe göre Alameda hisselerinin iflas işlemlerinin bir parçası olarak satılması gerektiğini varsayıyor.

Google gibi daha istikrarlı adaylar da Antropik yatırımcılar arasında yer alıyor: Grup yüzde on hisse için 300 milyon dolar taahhüt etti (Financial Times bunu bildirmişti). Buna karşılık Anthropic’in Google Cloud’u tercih edilen bulut sağlayıcısı yapmayı ve şirketle birlikte AI bilgisayar sistemleri geliştirmeyi kabul ettiği söyleniyor. Daha önce adı geçen programcı ve yatırımcı Jaan Tallinn’e (diğerlerinin yanı sıra Skype geliştiricisi ve DeepMind’de yatırımcı) ek olarak, eski Google genel müdürü Eric Schmidt ve Facebook’un kurucu ortağı Dustin Moskovitz Anthropic’i destekliyor.


(o)



Haberin Sonu