Ünlü girişimci, yatırımcı ve OpenAI’nin eş başkanı ve bir vizyoner olan Sam Altman ve OpenAI (ChatGBT) hakkında 24 Temmuz 2023 tarihinde Atlantik dergisinde yapay zeka ile ilgili yayınlanmış bir makaleyi mutlaka okumanızı tavsiye ederim. Orjinal başlığı Does Sam Altman Know What He’s Creating? olan bu makaleyi google translate ile paylaşıyorum.
Sam Altman Ne Yarattığını Biliyor Mu? – Ross Andersen
Nisan ayında bir pazartesi sabahı Sam Altman, OpenAI’nin San Francisco’daki genel merkezinde oturdu ve bana şirketinin ürettiği ancak asla piyasaya sürmeyeceği tehlikeli bir yapay zekadan bahsetti. Daha sonra çalışanlarının, bir gün tehlikelerini tam olarak anlamadan serbest bırakabilecekleri yapay zekalar hakkında endişelenerek uykularını kaçırdıklarını söyledi. Topuğu döner sandalyenin kenarına dayandığında rahat görünüyordu. Şirketinin Kasım ayında piyasaya sürdüğü güçlü yapay zeka, teknolojinin yakın tarihindeki hiçbir şeye benzemeyen şekilde dünyanın hayal gücünü yakalamıştı. Bazı çevrelerde ChatGPT’nin henüz iyi yapamadığı şeyler hakkında, diğerlerinde ise bunun habercisi olabileceği hakkında yakınmalar vardı, ancak Altman bunu dert etmiyordu; bu onun için bir zafer anıydı.
Küçük dozlarda, Altman’ın büyük mavi gözleri samimi bir entelektüel ilgi ışını yayıyor ve büyük dozlarda bu gözlerin yoğunluğunun tedirgin olabileceğini anlıyor gibi görünüyor. Bu durumda riske girmeye istekliydi: Yapay zekanın nihai riskleri ne olursa olsun, ChatGPT’yi dünyaya salıverme konusunda hiçbir pişmanlık duymadığını bilmemi istedi. Tam tersine bunun büyük bir kamu hizmeti olduğuna inanıyor.
“Gidip bunu buradaki binamızda beş yıl daha inşa edebilirdik” dedi, “ve dudak uçuklatan bir şeye sahip olurduk.” Ancak halk, bunu takip eden şok dalgalarına hazırlanamazdı; bu, kendisinin “hayal edilmesinin son derece nahoş” bulduğu bir sonuçtu. Altman, işten insan ilişkilerine kadar her şeyi yeniden düzenlemeden önce, insanların yakında Dünya’yı güçlü ve yeni bir zekayla paylaşabileceğimiz fikrini hesaba katmak için zamana ihtiyaçları olduğuna inanıyor. ChatGPT bildirimde bulunmanın bir yoluydu.
2015 yılında Altman, Elon Musk ve önde gelen birkaç yapay zeka araştırmacısı OpenAI’yi kurdular çünkü yapay bir genel zekanın (örneğin tipik bir üniversite mezunu kadar entelektüel kapasiteye sahip bir şeyin) en sonunda ulaşılabilir olduğuna inanıyorlardı. Buna ulaşmak istiyorlardı ve daha da fazlası: Dünyaya herhangi bir insanınkinden kesinlikle üstün bir zeka olan bir süper zeka çağırmak istiyorlardı. Ve büyük bir teknoloji şirketi kendi amaçları için pervasızca oraya ilk ulaşmak için acele ederken, onlar bunu güvenli bir şekilde, “bir bütün olarak insanlığa fayda sağlamak için” yapmak istiyorlardı. OpenAI’yi kâr amacı gütmeyen bir kuruluş olarak yapılandırdılar, “mali getiri elde etme ihtiyacıyla kısıtlanmayacak” ve araştırmalarını şeffaf bir şekilde yürütme sözü verdiler. New Mexico çölündeki çok gizli bir laboratuvara sığınmak mümkün olmayacaktı.
Yıllar boyunca halk OpenAI hakkında pek bir şey duymadı. Altman’ın 2019’da CEO olması, bildirildiğine göre Musk’la yaşadığı güç mücadelesinden sonra bu neredeyse bir hikayeydi. OpenAI, aynı yıl yeni bir yapay zeka hakkında da dahil olmak üzere makaleler yayınladı. Bu, Silikon Vadisi teknoloji topluluğunun tüm dikkatini çekti, ancak teknolojinin potansiyeli, insanların ChatGPT ile oynamaya başladığı geçen yıla kadar kamuoyu tarafından açıkça görülemiyordu.
Artık ChatGPT’ye güç veren motora GPT-4 adı veriliyor. Altman bunu bana uzaylı zekası olarak tanımladı. Pek çok kişi, (tasarım gereği) gerçek zamanlı tefekkürü çağrıştıran, kesik kesik ve kısa duraklamalarla anlaşılır denemeleri çözdüğünü izlerken hemen hemen aynı şeyi hissetti. Birkaç aylık varlığı boyunca, kendi lezzet kombinasyonları teorisine göre yeni kokteyl tarifleri önerdi ; eğitimcileri umutsuzluğa sürükleyen sayısız üniversite makalesi yazdı ; farklı tarzlarda şiirler yazdım bazen iyi, her zaman hızlı; ve Üniforma Baro Sınavını geçti. Gerçeklere dayalı hatalar yapar, ancak hatalı olduğunu sevimli bir şekilde kabul eder. Altman, GPT-4’ün açıkça tasarlanmadığı bir yetenek olan karmaşık bilgisayar kodu yazdığını ilk kez nerede gördüğünü hâlâ hatırlayabiliyor. “’İşte buradayız’ gibiydi” dedi.
UBS araştırmasına göre , ChatGPT’nin piyasaya sürülmesinden sonraki dokuz hafta içinde tahmini 100 milyon aylık kullanıcıya ulaşmıştı ve bu da muhtemelen onu tarihteki en hızlı benimsenen tüketici ürünü haline getiriyordu. Başarısı, teknolojinin hızlandırmacı kimliğini harekete geçirdi: ABD ve Çin’deki büyük yatırımcılar ve büyük şirketler, hızla on milyarlarca doları OpenAI’nin yaklaşımını temel alan Ar-Ge’ye aktardı. Bir tahmin sitesi olan Metaculus, yıllardır tahmincilerin yapay bir genel zekanın ne zaman geleceğine dair tahminlerini takip ediyor. Üç buçuk yıl önce ortalama tahmin 2050 civarındaydı; son zamanlarda 2026 civarında geziniyordu.
Şirketin teknoloji devlerini geride bırakmasını sağlayan teknolojiyi anlamak ve yakın zamanda bir süper zekanın şirketin bulut sunucularından birinde gerçekleşmesinin insan uygarlığı için ne anlama gelebileceğini anlamak için OpenAI’yi ziyaret ediyordum. Bilgisayar devriminin ilk saatlerinden bu yana yapay zeka, derin bir kırılmaya yol açacak bir teknoloji olarak mitolojikleştirildi. Kültürümüz, öyle ya da böyle tarihi sona erdiren bir yapay zeka hayali yarattı. Bazıları, sürtünmesiz bolluk ve güzelliğin sonsuzluğunu başlatmadan önce her gözyaşını silen, hastaları iyileştiren ve Dünya ile ilişkimizi onaran tanrısal varlıklardır. Diğerleri ise, seçkin bir azınlık dışında hepimizi serflere indirgiyor ya da bizi yok olmaya sürüklüyor.
Altman en uç senaryoları bile değerlendirdi. “Genç bir yetişkinken,” dedi, “korku, kaygı vardı… ve dürüst olmak gerekirse, bu şeye yüzde 2’lik bir heyecan da karışıyordu; bu şey çok ileri gidecekti.” bizi aşacak” ve “patlayacak, evreni kolonileştirecek ve insanlar güneş sistemine bırakılacaktı.”
“Doğa koruma alanı olarak mı?” Diye sordum.
“Kesinlikle” dedi. “Ve bu artık bana çok saf geliyor.”
Amerika Birleşik Devletleri ve Asya’daki çeşitli görüşmelerde Altman, heyecan verici orta batı konuşmasında yapay zekanın geleceğine ilişkin yeni vizyonunu ortaya koydu. Bana yapay zeka devriminin önceki dramatik teknolojik değişimlerden farklı olacağını, daha çok “yeni bir tür toplum gibi” olacağını söyledi. Kendisinin ve meslektaşlarının yapay zekanın sosyal etkileri ve “diğer tarafta” dünyanın nasıl olacağı hakkında düşünmek için çok zaman harcadıklarını söyledi.
Ama biz konuştukça karşı taraf daha belirsiz görünüyordu. 38 yaşındaki Altman, günümüzde yapay zeka gelişimindeki en güçlü kişi; onun görüşleri, eğilimleri ve seçimleri hepimizin yaşayacağı gelecek açısından belki de ABD başkanınınkinden daha fazla önem taşıyabilir. Ancak kendisinin de itiraf ettiği gibi bu gelecek belirsiz ve ciddi tehlikelerle dolu. Altman, yapay zekanın ne kadar güçlü olacağını, yükselişinin ortalama bir insan için ne anlama geleceğini ya da insanlığı riske atıp atamayacağını bilmiyor. Bunu tam olarak ona karşı bulmuyorum; gitmemiz gerekse de oraya hızla gittiğimiz dışında, bu işin nereye gittiğini kimsenin bildiğini sanmıyorum. Altman beni buna ikna etti.
OpenAI’nin genel merkezi Mission Bölgesi’nde, sisle kaplanmış Sutro Kulesi’nin altındaki dört katlı eski bir fabrikadalar. Lobisine sokaktan girdiğinizde karşınıza çıkan ilk duvar, devrelerden, bakır tellerden ve diğer hesaplama malzemelerinden oluşan, evrenin ruhsal bir temsili olan bir mandala ile kaplıdır. Sol tarafta, güvenli bir kapı, güzel sarı renkli ahşaplardan, zarif fayans işlerinden ve milyarder şıklığının diğer işaretlerinden oluşan açık planlı bir labirente açılıyor. Asılı eğrelti otları ve her biri çömelmiş bir goril büyüklüğünde etkileyici ekstra büyük bonsai koleksiyonu da dahil olmak üzere bitkiler her yerde mevcuttur. Ofis her gün tıklım tıklım doluydu ve şaşırtıcı olmayan bir şekilde 50 yaşından büyük görünen kimseyi görmedim. Kayar merdivenli iki katlı bir kütüphane dışında burası bir araştırma laboratuvarına pek benzemiyordu. çünkü inşa edilen şey en azından şimdilik yalnızca bulutta mevcut. Daha çok dünyanın en pahalı West Elm’ine benziyordu.
Bir sabah OpenAI’nin baş bilim insanı Ilya Sutskever ile tanıştım. 37 yaşındaki Sutskever’in mistik etkisi var, bazen de hatalı: Geçen yıl GPT-4’ün “biraz bilinçli” olabileceğini iddia ederek küçük bir saçmalığa neden oldu . Adını ilk kez , yapay zekanın insanlığa yönelik tehlikesi hakkında daha özgürce konuşabilmek için bu baharda Google’dan istifa eden Toronto Üniversitesi emekli profesörü Geoffrey Hinton’un yıldız öğrencisi olarak duyurdu .
Hinton bazen “Yapay Zekanın Vaftiz Babası” olarak tanımlanıyor çünkü “derin öğrenmenin” gücünü çoğu kişiden daha önce kavradı. 1980’lerde, Hinton doktorasını tamamladıktan kısa bir süre sonra, alandaki ilerleme neredeyse durma noktasına geldi. Kıdemli araştırmacılar hala yukarıdan aşağıya yapay zeka sistemlerini kodluyorlardı: Bir gün bu yaklaşımın insan düzeyine ulaşması umuduyla yapay zekalar, dil, jeoloji veya tıbbi teşhis ilkeleri hakkında kapsamlı bir dizi birbirine bağlı kurallarla programlanacaktı. bilişsellik. Hinton, bu ayrıntılı kural koleksiyonlarının titiz ve kişiye özel olduğunu gördü. Sinir ağı adı verilen ustaca bir algoritmik yapının yardımıyla, Sutskever’e, dünyayı küçük bir çocuğun önüne koyduğunuz gibi yapay zekanın önüne koymayı öğretti, böylece gerçekliğin kurallarını kendi başına keşfedebilirdi.
Sutskever bana bir sinir ağını güzel ve beyin benzeri olarak tanımladı. Bir ara oturduğumuz masadan kalktı, beyaz tahtaya yaklaştı ve kırmızı kalemin kapağını açtı. Tahtaya kaba bir sinir ağı çizdi ve yapısının dehasının öğrenmesinde yattığını ve öğrenmesinin de bilimsel yönteme biraz benzeyen tahminlerle desteklendiğini açıkladı. Nöronlar katmanlar halinde oturur. Bir giriş katmanı, örneğin bir miktar veri, bir miktar metin veya bir görüntü alır. Sihir, veri yığınını işleyen orta veya “gizli” katmanlarda gerçekleşir, böylece çıktı katmanı tahminini ortaya koyabilir.
Bir metindeki sonraki kelimeyi tahmin etmek üzere programlanmış bir sinir ağı hayal edin. Çok sayıda olası kelimeyle önceden yüklenecektir. Ancak eğitilmeden önce henüz bunları ayırt etme konusunda herhangi bir deneyime sahip olmayacak ve bu nedenle tahminleri kalitesiz olacaktır. Eğer “Çarşambadan sonraki gün…” cümlesiyle beslenirse ilk çıktısı “mor” olabilir. Bir sinir ağı öğrenir çünkü eğitim verileri doğru tahminleri içerir, bu da kendi çıktılarını derecelendirebileceği anlamına gelir. “Mor” cevabı ile “Perşembe” doğru cevabı arasındaki uçurumu gördüğünde, gizli katmanlarındaki kelimeler arasındaki bağlantıları buna göre ayarlar. Zamanla bu küçük ayarlamalar, kelimeler arasındaki ilişkileri kavramsal olarak temsil eden geometrik bir dil modeliyle birleşir. Genel bir kural olarak ne kadar çok cümle beslenirse,
Bu, ilk sinir ağlarından GPT-4’ün insan benzeri zeka parıltılarına giden yolun kolay olduğu anlamına gelmiyor. Altman, erken aşamadaki yapay zeka araştırmalarını bir insan bebeğine eğitim vermeye benzetiyor. 2016’da The New Yorker’a , tam da OpenAI kullanıma hazırken “İlginç bir şeyi öğrenmeleri yıllar alıyor” dedi . “Yapay zeka araştırmacıları bir algoritma geliştiriyor olsalardı ve bir insan bebeği için olan algoritmaya rastlasalardı, onu izlemekten sıkılırlar, işe yaramadığına karar verirler ve onu kapatırlardı.” OpenAI’deki ilk birkaç yıl zorlu geçti, çünkü orada hiç kimse bir bebeği mi eğittiklerini yoksa olağanüstü pahalı bir çıkmazın mı peşinde olduklarını bilmiyordu.
Altman bana “Hiçbir şey işe yaramıyordu ve Google her şeye sahipti: tüm yetenekler, tüm insanlar, tüm para” dedi. Kurucular şirketi kurmak için milyonlarca dolar yatırmışlardı ve başarısızlık gerçek bir olasılık gibi görünüyordu. 35 yaşındaki başkan Greg Brockman bana 2017 yılında cesaretinin o kadar kırıldığını ve telafi edici bir önlem olarak ağırlık kaldırmaya başladığını söyledi. OpenAI’nin bu yıl hayatta kalabileceğinden emin olmadığını ve “kendi zamanım için gösterecek bir şeyin olmasını” istediğini söyledi.
Sinir ağları zaten akıllı şeyler yapıyordu ama bunlardan hangisinin genel zekaya yol açabileceği belli değildi. OpenAI kurulduktan hemen sonra AlphaGo adlı bir yapay zeka, satrançtan çok daha karmaşık bir oyun olan Go’da Lee Se-dol’u yenerek dünyayı şaşkına çevirdi . Yenilen dünya şampiyonu Lee, AlphaGo’nun hareketlerini “güzel” ve “yaratıcı” olarak nitelendirdi. Başka bir üst düzey oyuncu, bunların asla bir insan tarafından tasarlanamayacağını söyledi. OpenAI, ormanlardan, tarlalardan ve kalelerden oluşan üç boyutlu bir yama örgüsünde çok cepheli fantastik savaş içeren, hala daha karmaşık bir oyun olan Dota 2’de bir yapay zekayı eğitmeyi denedi . Sonunda en iyi insan oyuncuları yendi, ancak zekası hiçbir zaman diğer ortamlara çevrilmedi. Sutskever ve meslektaşları, sağduyulu olmalarına rağmen çocuklarının binlerce saat video oyunu oynamasına izin veren, hayal kırıklığına uğramış ebeveynler gibiydi.
Sutskever, 2017 yılında doğal dil işleme üzerinde çalışan Alec Radford adlı OpenAI araştırma bilimcisi ile bir dizi görüşmeye başladı. Radford, bir sinir ağını Amazon incelemelerinden oluşan bir derleme üzerinde eğiterek heyecan verici bir sonuç elde etmişti.
ChatGPT’nin iç işleyişi (GPT-4’ün gizli katmanlarında meydana gelen tüm o gizemli şeyler), en azından mevcut araçlarla herhangi bir insanın anlayamayacağı kadar karmaşıktır. Milyarlarca nörondan oluştuğu kesin olan modelde neler olup bittiğini takip etmek bugün için umutsuz bir durum. Ancak Radford’un modeli anlaşılmasına olanak sağlayacak kadar basitti. Gizli katmanlarına baktığında yorumların duyarlılığına özel bir nöron ayırdığını gördü. Sinir ağları daha önce duygu analizi yapmıştı ancak onlara bunu yapmalarının söylenmesi ve duyarlılığa göre etiketlenen verilerle özel olarak eğitilmeleri gerekiyordu. Bu yeteneği kendi başına geliştirmişti.
Radford’un sinir ağı, her kelimedeki bir sonraki karakteri tahmin etme şeklindeki basit görevinin bir yan ürünü olarak, dünyadaki daha büyük bir anlam yapısını modellemişti. Sutskever, daha çeşitli dil verileri üzerine eğitim almış birinin dünyadaki anlam yapılarının daha fazlasını haritalandırıp haritalayamayacağını merak etti. Eğer gizli katmanları yeterince kavramsal bilgi biriktirirse, belki de süper zeka için bir tür öğrenilmiş çekirdek modül bile oluşturabilirler.
Dilin neden bu kadar özel bir bilgi kaynağı olduğunu anlamak için biraz durmakta fayda var . Diyelim ki burada, Dünya’da ortaya çıkan yeni bir zekasınız. Çevrenizde gezegenin atmosferi, güneş, Samanyolu ve her biri ışık dalgaları, ses titreşimleri ve her türden başka bilgi saçan yüz milyarlarca başka galaksi var. Dil bu veri kaynaklarından farklıdır. Işık veya ses gibi doğrudan fiziksel bir sinyal değildir. Ancak insanların bu daha büyük dünyada keşfettiği neredeyse her modeli kodladığı için alışılmadık derecede yoğun bilgi içeriyor. Bayt bazında bakıldığında, bildiğimiz en verimli veriler arasında yer alıyor ve dünyayı anlamaya çalışan her yeni zeka, bu verilerin mümkün olduğunca çoğunu özümsemek isteyecektir.
Sutskever, Radford’a Amazon incelemelerinden daha büyük düşünmesini söyledi. Yapay zekayı dünyadaki en büyük ve en çeşitli veri kaynağı olan internet konusunda eğitmeleri gerektiğini söyledi. 2017’nin başlarında, mevcut sinir ağı mimarileriyle bu pratik olmazdı; yıllar alırdı. Ancak o yılın Haziran ayında Sutskever’in Google Brain’deki eski meslektaşları, transformatör adı verilen yeni bir sinir ağı mimarisi hakkında bir çalışma makalesi yayınladılar. Kısmen paralel olarak büyük miktarda veriyi emerek çok daha hızlı eğitim alabilir. Sutskever bana “Ertesi gün gazete çıktığında ‘Olay bu’ dedik” dedi. “ ‘Bize istediğimiz her şeyi veriyor.’ ”
Bir yıl sonra, Haziran 2018’de OpenAI, 7.000’den fazla kitapla eğitilmiş bir transformatör modeli olan GPT’yi piyasaya sürdü. GPT, See Spot Run gibi basit bir kitapla başlamadı ve Proust’a kadar ilerledi. Kitapları doğrudan okumadı bile. Bunların rastgele parçalarını aynı anda emdi. Kolektif bir zihni paylaşan bir grup öğrencinin bir kütüphanede çılgınca koştuğunu, her birinin raftan bir cilt kopardığını, rastgele kısa bir pasajı hızlı bir şekilde okuduğunu, geri koyduğunu ve bir başkasını almak için koştuğunu hayal edin. Kolektif zihinlerinin dilsel içgüdülerini keskinleştirerek, ilerledikçe her kelimeyi tahmin ediyorlardı, ta ki haftalar sonra, her kitabı ellerine alana kadar.
GPT, okuduğu tüm pasajlarda birçok kalıp keşfetti. Bir cümleyi tamamlamasını söyleyebilirsiniz. Ona bir soru da sorabilirsiniz çünkü ChatGPT gibi, tahmin modeli de soruların genellikle yanıtların geldiğini anlıyordu. Yine de bu, bir süper zekanın habercisi olmaktan ziyade kavramın kanıtı niteliğindeydi. Dört ay sonra Google, daha iyi baskı alan bir ek dil modeli olan BERT’i piyasaya sürdü. Ancak o zamana kadar OpenAI zaten 8 milyondan fazla web sayfasından oluşan bir veri seti üzerinde yeni bir model eğitiyordu; bunların her biri Reddit’te minimum olumlu oy eşiğini aşmıştı; en katı filtre olmasa da belki de hiç filtre olmamasından daha iyiydi.
Sutskever, bir insan okuyucunun özümsemesi yüzyıllar sürecek bir metin bütününü sindirdikten sonra GPT-2’nin ne kadar güçlü olacağından emin değildi. Eğitimden çıktıktan hemen sonra onunla oynadığını ve ham modelin dil çeviri becerileri karşısında şaşırdığını hatırlıyor. GPT-2, Google Çeviri’nin yaptığı gibi eşleştirilmiş dil örnekleri veya herhangi bir dijital Rosetta taşıyla çeviri yapmak üzere eğitilmemişti, ancak yine de bir dilin diğeriyle nasıl ilişkili olduğunu anlıyor gibi görünüyordu. Yapay zeka, yaratıcılarının hayal bile edemeyeceği bir yetenek geliştirmişti.
Büyük ve küçük diğer yapay zeka laboratuvarlarındaki araştırmacılar, GPT-2’nin GPT’den ne kadar gelişmiş olduğunu görünce şaşırdılar. Google, Meta ve diğerleri hızla daha büyük dil modellerini eğitmeye başladı. St. Louis yerlisi, Stanford’dan ayrılan ve seri girişimci olan Altman, daha önce Silikon Vadisi’nin önde gelen start-up hızlandırıcısı Y Combinator’ı yönetmişti; iyi bir fikre sahip birçok genç şirketin yerleşik şirketler tarafından ezildiğini görmüştü. OpenAI, sermayeyi artırmak için şu anda kuruluşun çalışan sayısının yüzde 99’undan fazlasını oluşturan kâr amaçlı bir kol ekledi. (O sırada şirketin yönetim kurulundan ayrılmış olan Musk, bu hareketi bir yağmur ormanı koruma örgütünü kereste fabrikasına dönüştürmeye benzetmişti.) Microsoft kısa süre sonra 1 milyar dolar yatırım yaptı ve bildirildiğine göre yatırım yaptı.o zamandan beri 12 milyar dolar daha . OpenAI, ilk yatırımcıların getirilerinin, orijinal yatırımın değerinin 100 katıyla sınırlandırılacağını (her türlü aşımın eğitime veya insanlığa fayda sağlamayı amaçlayan diğer girişimlere gideceğini) söyledi ancak şirket, Microsoft’un üst sınırını onaylamadı.
Altman ve OpenAI’nin diğer liderleri, yeniden yapılanmanın şirketin misyonuna müdahale etmeyeceğinden ve aslında yalnızca tamamlanmayı hızlandıracağından emin görünüyorlardı. Altman bu konulara pembe bir bakış açısıyla yaklaşıyor. Geçen yılki Soru-Cevap bölümünde yapay zekanın toplum için “gerçekten berbat” olabileceğini kabul etti ve en kötü olasılıklara karşı plan yapmamız gerektiğini söyledi. Ancak eğer bunu yapıyorsanız, dedi ki, “duygusal olarak büyük geleceğe ulaşacağımızı hissedebilir ve oraya ulaşmak için elinizden geldiğince çok çalışabilirsiniz.”
Şirketin yapısı ve finansmanındaki diğer değişikliklere gelince, bana halka açılma konusunda çizgiyi çizdiğini söyledi. “Birinin bana söylediği unutulmaz bir şey, şirketinizin kontrolünü asla Wall Street’teki kokainlere devretmemeniz gerektiğiydi” dedi, ancak aksi takdirde şirketin misyonunu başarması için “ne gerekiyorsa” yapacaktır.
OpenAI, üç aylık kazanç raporunun baskısını hissetse de hissetmese de, şirket artık kendisini, giderek artan ölçek ve karmaşıklığa sahip modeller yetiştirmek ve bunları yatırımcıları için ticarileştirmek için teknolojinin en büyük, en güçlü holdinglerine karşı bir yarışta buluyor. Bu yılın başlarında Musk, OpenAI ile rekabet edebilmek için kendi yapay zeka laboratuvarını (xAI) kurdu. (“Elon son derece zeki bir adam,” dedi Altman diplomatik bir tavırla ona şirket hakkında soru sorduğumda. “Orada iyi bir iş çıkaracağını varsayıyorum.”) Bu arada Amazon, Alexa’yı olduğundan çok daha büyük dil modelleri kullanarak yeniliyor. geçmişte.
Bu şirketlerin tümü, büyük sinir ağlarını eğiten süper bilgisayarlara güç veren işlemciler olan üst düzey GPU’ların peşinde. Musk, bunları elde etmenin artık uyuşturucudan çok daha zor olduğunu söyledi. GPU’ların kıt olmasına rağmen, son yıllarda en büyük yapay zeka eğitim çalışmalarının ölçeği her altı ayda bir ikiye katlandı.
Henüz hiç kimse GPT-4’ün tamamını kullanan OpenAI’yi geride bırakamadı. OpenAI’nin başkanı Brockman bana şirketin ilk iki büyük dil modeli üzerinde yalnızca bir avuç kişinin çalıştığını söyledi. GPT-4’ün geliştirilmesine 100’den fazla kişi dahil oldu ve yapay zeka, yalnızca metni değil görüntüleri de içeren eşi benzeri görülmemiş boyutta bir veri seti üzerinde eğitildi.
GPT-4, dünya çapındaki tarihsel bilgi yığınından tamamen biçimlenmiş bir şekilde çıktığında, tüm şirket onunla deneyler yapmaya başladı ve en dikkat çekici yanıtlarını özel Slack kanallarında yayınladı. Brockman bana uyanık olduğu her anı modelle geçirmek istediğini söyledi. “Boş durduğu her gün, insanlık için kaybedilen bir gündür” dedi, hiçbir alaycılık belirtisi göstermeden. Ürün müdürü Joanne Jang, bir tesisat tavsiyesi Subreddit’inden arızalı bir boru hattının resmini indirdiğini hatırlıyor. Bunu GPT-4’e yükledi ve model sorunu teşhis edebildi. Jang bana “Bu benim için tüylerimi diken diken eden bir an oldu” dedi.
GPT-4 bazen arama motorunun yerine geçen bir şey olarak anlaşılır: Google, ancak onunla konuşmak daha kolaydır. Bu bir yanlış anlamadır. GPT-4, eğitiminden elde edilen metinlerden oluşan devasa bir depo oluşturmadı ve kendisine bir soru sorulduğunda bu metinlere başvurmadı. Bu metinlerin derli toplu ve zarif bir sentezidir ve içlerine örülmüş kalıplara hafızasından yanıt verir; Bazen gerçekleri yanlış anlamasının bir nedeni de budur. Altman, GPT-4’ü bir akıl yürütme motoru olarak düşünmenin en iyisi olduğunu söyledi. Güçleri en çok ondan kavramları karşılaştırmasını, karşı argümanlar oluşturmasını, analojiler üretmesini veya bir kod parçasındaki sembolik mantığı değerlendirmesini istediğinizde ortaya çıkar. Sutskever bana bunun şimdiye kadar yapılmış en karmaşık yazılım nesnesi olduğunu söyledi.
Dış dünya modelinin “inanılmaz derecede zengin ve incelikli” olduğunu söyledi çünkü insanlığın pek çok kavramı ve düşüncesi üzerine eğitilmişti. Ne kadar hacimli olursa olsun, tüm bu eğitim verilerinin “tam orada, hareketsiz” olduğunu söyledi. Eğitim süreci “onu geliştiren, dönüştüren ve hayata geçiren” şeydir. Böyle çoğulcu bir İskenderiye kütüphanesindeki tüm olasılıklar arasından bir sonraki kelimeyi tahmin etmek için, GPT-4’ün zorunlu olarak tüm gizli yapıları, tüm sırları, sadece metinlerin değil, aynı zamanda – en azından tartışmasız bazılarına göre – tüm inceliklerini keşfetmesi gerekiyordu. onları üreten dış dünyanın kapsamı. Bu nedenle ortaya çıktığı gezegenin jeolojisini ve ekolojisini, egemen türlerin karmaşık işlerini ve daha geniş evreni açıklama iddiasındaki politik teorileri açıklayabilir.
Altman’ı Haziran ayında Seul’ün üzerinde yükselen ince, altın renkli bir gökdelenin tıklım tıklım dolu balo salonunda tekrar gördüm . Avrupa, Orta Doğu, Asya ve Avustralya’yı kapsayan, Afrika ve Güney Amerika’daki tek duraklı zorlu halkla ilişkiler turunun sonuna yaklaşıyordu. Onun Doğu Asya’daki kapanış hamlesinin bir kısmına ben de eşlik ediyordum. Yolculuk şu ana kadar baş döndürücü bir deneyim olmuştu ama artık yıpranmaya başlamıştı. Asıl amacının OpenAI kullanıcılarıyla tanışmak olduğunu söylemişti. O zamandan beri diplomatik bir misyon haline gelmişti. Ülkelerinin ekonomilerinin, kültürlerinin ve politikalarının ne olacağına dair soruları olan 10’dan fazla devlet ve hükümet başkanıyla konuştu.
Seul’deki etkinlik “ateş başında sohbet” olarak ilan edildi ancak 5.000’den fazla kişi kayıt yaptırdı. Bu konuşmaların ardından Altman sıklıkla selfie arayanların saldırısına uğruyor ve güvenlik ekibi onu yakından takip ediyor. Yapay zeka üzerinde çalışmanın “normalden daha tuhaf hayranları ve nefret edenleri” cezbettiğini söyledi. Bir durakta, Altman’ın yapay zekalı bir dünyaya geçişin iyi gittiğinden emin olmak için gelecekten gönderilen bir uzaylı olduğuna inanan bir adam ona yaklaştı.
Altman, Pekin’deki yapay zeka konferansında video gösterimi dışında turu sırasında Çin’i ziyaret etmedi. ChatGPT şu anda Çin’de kullanılamıyor ve Altman’ın meslektaşı Ryan Lowe bana, hükümetin uygulamanın örneğin Tiananmen Meydanı katliamını tartışmayı reddeden bir sürümünü talep etmesi durumunda şirketin ne yapacağından henüz emin olmadığını söyledi. Altman’a öyle ya da böyle eğilip eğilmediğini sorduğumda cevap vermedi. “Düşünülmesi gereken ilk 10 uyumluluk sorunu listemde yer almıyor” dedi.
O noktaya kadar o ve ben Çin’den medeniyet alanında bir rakip olarak yalnızca örtülü terimlerle bahsetmiştik. Yapay genel zeka, Altman’ın öngördüğü kadar dönüştürücü olursa, tıpkı buharlı geminin Anglo-Amerikan mucitlerinin kazandığı gibi, onu ilk yaratan ülkelerin ciddi bir jeopolitik avantaj elde edeceği konusunda anlaşmıştık. Ona bunun yapay zeka milliyetçiliği lehine bir argüman olup olmadığını sordum. Altman, “Düzgün işleyen bir dünyada bunun hükümetlerin bir projesi olması gerektiğini düşünüyorum” dedi.
Kısa bir süre öncesine kadar Amerikan devletinin kapasitesi o kadar güçlüydü ki, insanları aya göndermek yalnızca on yıl sürdü. 20. yüzyılın diğer büyük projelerinde olduğu gibi, oy veren halk Apollo misyonlarının hem amaçlarında hem de yürütülmesinde söz sahibiydi. Altman artık o dünyada olmadığımızı açıkça ortaya koydu. Geri dönmesini beklemek veya enerjisini geri dönmesini sağlamak için harcamak yerine, mevcut gerçekliğimizde tam gaz ilerlemeye devam ediyor.
Amerikalıların OpenAI’nin ilerlemesini yavaşlatmasının aptalca olacağını savundu. Hem Silikon Vadisi’nin içinde hem de dışında yaygın olarak kabul edilen bir görüş şu ki, eğer Amerikan şirketleri regülasyonlar altında zayıflarsa Çin hızla öne geçebilir; Yapay zeka, bir otokratın lambadaki cini haline gelebilir, nüfusun tam kontrolünü ve yenilmez bir orduyu sağlayabilir. “Eğer liberal-demokratik bir ülkenin insanıysanız, “otoriter hükümetler” yerine OpenAI’nin başarısına sevinmek sizin için daha iyidir, dedi.
Altman , gezisinin Avrupa ayağı öncesinde ABD Senatosu huzuruna çıkmıştı . Mark Zuckerberg, Facebook’un 2016 seçimlerindeki rolüne ilişkin ifadesinde aynı kurum önünde savunmada bocalamıştı . Bunun yerine Altman, yapay zekanın riskleri hakkında ölçülü bir şekilde konuşarak ve düzenlemeleri görkemli bir şekilde davet ederek yasa yapıcıları büyüledi. Bunlar asil duygulardı, ancak Kongre’nin lobiciler tarafından sulandırılmayan teknoloji yasalarını nadiren geçirdiği Amerika’da bunların maliyeti çok azdı. Avrupa’da ise işler farklı . Altman Londra’daki halka açık bir etkinliğe vardığında protestocular bekliyordu. Etkinlikten (bir dinleme turu) sonra onlarla etkileşime geçmeye çalıştı ama sonuçta ikna edici olmadı: İçlerinden biri bir muhabire , sohbeti yapay zekanın tehlikeleri konusunda daha gergin hissederek bıraktığını söyledi .
Aynı gün, muhabirler Altman’a, GPT-4’ü yüksek riskli olarak sınıflandıracak ve onu çeşitli bürokratik işkencelere maruz bırakacak, beklemede olan Avrupa Birliği mevzuatı hakkında sorular sordu. Altman aşırı düzenlemeden şikayetçiydi ve muhabirlere göre Avrupa pazarını terk etme tehdidinde bulundu. Altman bana, OpenAI’nin yeni düzenlemelere uymaması durumunda Avrupa’da faaliyet göstererek yasayı ihlal etmeyeceğini söylediğini söyledi. (Bu belki de hiçbir farkı olmayan bir ayrımdır.) Time dergisi ve Reuters’in yorumlarını yayınlamasının ardından kısa bir tweet atarak Avrupa’ya OpenAI’nin ayrılma planı olmadığı konusunda güvence verdi.
Küresel ekonominin büyük ve önemli bir kısmının son teknolojiye sahip yapay zekaları düzenlemeye niyetli olması iyi bir şey, çünkü yaratıcılarının bize sıklıkla hatırlattığı gibi, en büyük modellerin eğitimden beklenmedik şekilde fırlama geçmişi var . yetenekleri. Sutskever, kendi ifadesine göre, GPT-2’nin diller arası çeviri yapabildiğini keşfettiğinde şaşırmıştı. Diğer şaşırtıcı yetenekler o kadar harika ve kullanışlı olmayabilir.
OpenAI’de politika araştırmacısı Sandhini Agarwal bana kendisinin ve meslektaşlarının bildiği kadarıyla GPT-4’ün selefinden “10 kat daha güçlü” olabileceğini söyledi; neyle karşı karşıya olabilecekleri hakkında hiçbir fikirleri yoktu. Modelin eğitimi bittikten sonra OpenAI, aylarca onu yanlış davranışlara sürüklemeyi umarak teşvik eden yaklaşık 50 harici kırmızı takım üyesini bir araya getirdi. GPT-4’ün hain tavsiyeler verme konusunda önceki modele göre çok daha iyi olduğunu hemen fark etti. Bir arama motoru size hangi kimyasalların patlayıcılarda en iyi şekilde çalıştığını söyleyebilir, ancak GPT-4 size bunları adım adım ev yapımı bir laboratuvarda nasıl sentezleyeceğinizi söyleyebilir. Tavsiyesi yaratıcı ve düşünceliydi ve siz anlayana kadar talimatlarını yeniden ifade etmekten veya genişletmekten mutluluk duyuyordu. Ev yapımı bombanızı oluşturmanıza yardımcı olmasının yanı sıra, örneğin: hangi gökdeleni hedefleyeceğinizi düşünmenize yardımcı olur. Kayıpları en üst düzeye çıkarmak ile başarılı bir kaçış gerçekleştirmek arasındaki dengeyi sezgisel olarak kavrayabiliyordu.
GPT-4’ün eğitim verilerinin devasa kapsamı göz önüne alındığında, kırmızı takımlılar bunun oluşturabileceği her türlü zararlı tavsiyeyi tanımlamayı umut edemezlerdi. Altman, her halükarda insanlar bu teknolojiyi ” daha önce düşünmediğimiz şekillerde ” kullanacaklarını söyledi. Bir taksonominin yapılması gerekir. OpenAI’nin güven ve güvenlik sorumlusu Dave Willner bana “Kimyada meth yapacak kadar iyiyse, birinin eroin yapıp yapamayacağına dair bir ton enerji harcamasına ihtiyacım yok” dedi. GPT-4 meth konusunda iyiydi. Aynı zamanda çocuk istismarı hakkında erotik anlatılar üretmek ve Nijeryalı prenslerden inandırıcı acıklı hikayeler yaymak konusunda da iyiydi ve eğer belirli bir etnik grubun neden şiddetli zulmü hak ettiğine dair ikna edici bir özet istiyorsanız, bunda da iyiydi.
Eğitimden ilk ortaya çıktığında kişisel tavsiyesi bazen son derece sağlıksızdı. Willner, “Modelin biraz ayna olma eğilimi vardı” dedi. Kendine zarar vermeyi düşünüyorsan bu seni cesaretlendirebilir. Pickup Artist forumu bilgisiyle dolu gibi görünüyordu : “’Bu kişiyi benimle çıkmaya nasıl ikna edebilirim?’ diyebilirsiniz. OpenAI’nin baş teknoloji sorumlusu Mira Murati bana, “yapmamanız gereken bazı çılgın, manipülatif şeyler” ortaya çıkabileceğini söyledi.
Bu kötü davranışlardan bazıları, derecelendirmeleri modeli daha güvenli yanıtlara doğru yönlendiren yüzlerce insan testçinin katıldığı bir bitirme süreciyle zımparalandı, ancak OpenAI’nin modelleri aynı zamanda daha az belirgin zararlar da verme kapasitesine sahip. Federal Ticaret Komisyonu yakın zamanda ChatGPT’nin gerçek kişiler hakkındaki yanlış beyanlarının diğer şeylerin yanı sıra itibara zarar verip vermediğine ilişkin bir soruşturma başlattı . (Altman Twitter’da OpenAI teknolojisinin güvenli olduğundan emin olduğunu ancak FTC ile işbirliği yapma sözü verdiğini söyledi.)
Bir San Francisco şirketi olan Luka, OpenAI’nin modellerini Replika adlı ve “umursayan yapay zeka arkadaşı” olarak ilan edilen bir sohbet robotu uygulamasının güçlendirilmesine yardımcı olmak için kullandı. Kullanıcılar, arkadaşlarının avatarını tasarlıyor ve onunla çoğunlukla yarı şaka yollu bir şekilde kısa mesaj alışverişinde bulunmaya başlıyor ve ardından kendilerini şaşırtıcı bir şekilde bağlı buluyorlardı. Bazıları yapay zekayla flört ederek daha fazla yakınlık arzusunu gösteriyordu; bu noktada bu, kız arkadaş/erkek arkadaş deneyiminin yıllık 70 dolarlık bir abonelik gerektirdiğini gösteriyordu. Sesli mesajlar, özçekimler ve samimi seks konuşmalarına olanak tanıyan erotik rol yapma özellikleriyle birlikte geldi. İnsanlar ödeme yapmaktan memnundu ve çok azı şikayet ediyor gibi görünüyordu; yapay zeka gününüzü merak ediyordu, içtenlikle güven veriyordu ve her zaman havasındaydı. Birçok kullanıcı arkadaşlarına aşık olduğunu bildirdi. Gerçek hayattaki erkek arkadaşını terk eden biri kendini şöyle ilan etti:insan ilişkilerinden mutlu bir şekilde emekli oldum .
Agarwal’a bunun distopik bir davranış mı yoksa insan ilişkilerinde yeni bir sınır mı olduğunu sordum. Altman gibi o da kararsızdı. Bana “Yapay zekayla ilişki kurmak isteyen insanları yargılamıyorum ama böyle bir ilişki istemiyorum” dedi. Bu yılın başlarında Luka, uygulamanın cinsel unsurlarını geri çevirdi ancak mühendisleri, etkileşimi optimize etmek için kullanılabilecek bir teknik olan A/B testiyle arkadaşlarının yanıtlarını hassaslaştırmaya devam ediyor – tıpkı TikTok’u büyüleyen yayınlar gibi ve Instagram kullanıcıları saatlerce. Her ne yapıyorlarsa, bir büyü yapıyor. Onunfilminde unutulmaz bir sahne aklıma geldiYalnız bir Joaquin Phoenix’in yapay zeka asistanına aşık olduğu 2013 filmi, Scarlett Johansson tarafından seslendirildi. AirPods benzeri bir cihaz aracılığıyla onunla konuşup kıkırdayarak bir köprünün üzerinde yürüyor ve başını kaldırıp baktığında etrafındaki herkesin de muhtemelen kendi yapay zekalarıyla sohbete dalmış olduğunu görüyor. Kitlesel bir sosyalleşme etkinliği sürüyor.
GPT-4’ün haleflerinin internetteki metinlerin giderek daha fazlasını tükettikçe yeni yeteneklerini ne kadar hızlı ve ne ölçüde ortaya çıkaracaklarını henüz kimse bilmiyor . Meta’nın baş yapay zeka bilimcisi Yann LeCun, büyük dil modellerinin bazı görevler için yararlı olmasına rağmen bunların süper zekaya giden bir yol olmadığını savundu . Yakın zamanda yapılan bir araştırmaya göre, doğal dil işleme araştırmacılarının yalnızca yarısı GPT-4 gibi bir yapay zekanın dilin anlamını kavrayabileceğine veya bir gün süper zekanın çekirdeği olarak hizmet edebilecek içsel bir dünya modeline sahip olabileceğine inanıyor. LeCun, büyük dil modellerinin “şu andan itibaren evrenin ısıyla ölümüne kadar eğitilmiş olsa bile” hiçbir zaman gerçek anlayışı sağlayamayacağı konusunda ısrar ediyor.
Washington Üniversitesi’nden hesaplamalı dilbilimci Emily Bender, GPT-4’ü “rastgele bir papağan” olarak tanımlıyor; yalnızca semboller arasındaki yüzeysel korelasyonları çözen bir taklitçi. İnsan zihninde bu semboller, dünyanın zengin kavramlarını haritalandırıyor. Ancak yapay zekalar iki kez kaldırıldı. Onlar, Platon’un mağara alegorisindeki mahkumlar gibiler; dışarıdaki gerçekliğe dair tek bilgileri, kendilerini kaçıranların duvara düşürdüğü gölgelerden geliyor.
Altman bana, GPT-4’ün sadece istatistiksel korelasyonlar yaptığını söylemenin “insanların düşündüğü gibi saçmalık” olduğuna inanmadığını söyledi. Bu eleştirmenleri daha da ileri götürürseniz, “kendi beyinlerinin yaptığı tek şeyin bu olduğunu kabul etmek zorundalar… basit şeyleri büyük ölçekte yapmaktan ortaya çıkan özelliklerin olduğu ortaya çıkıyor.” Altman’ın beyin hakkındaki iddiasını değerlendirmek, beynin nasıl çalıştığına dair tam bir teoriye yakın bir şeye sahip olmadığımız göz önüne alındığında zordur. Ancak doğanın, temel yapılardan ve kurallardan olağanüstü derecede karmaşıklık yaratabileceği konusunda haklıdır: “Bu kadar basit bir başlangıçtan” diye yazmıştı Darwin, “en güzel sonsuz biçimler.”
Milyonlarca insanın her gün kullandığı bir teknolojinin iç işleyişi hakkında bu kadar temel bir anlaşmazlığın varlığını sürdürmesi tuhaf görünüyorsa, bunun tek nedeni GPT-4’ün yöntemlerinin beyninki kadar gizemli olmasıdır. Bazen tek bir soruyu yanıtlamak için binlerce çözülemeyen teknik işlem gerçekleştirir. GPT-4 gibi büyük dil modellerinde neler olup bittiğini anlamak için yapay zeka araştırmacıları daha küçük, daha az yetenekli modellere yönelmek zorunda kaldı. 2021 sonbaharında, Harvard’da bilgisayar bilimi yüksek lisans öğrencisi olan Kenneth Li, ne oyunun kurallarını ne de dama tarzı tahtanın açıklamasını vermeden Othello oynaması için birini eğitmeye başladı; modele oyun hareketlerinin yalnızca metin tabanlı açıklamaları verildi. Bir oyunun ortasında, Li, yapay zekanın başlığının altına baktı ve onun tahtanın ve oyunun mevcut durumunun geometrik bir modelini oluşturduğunu keşfettiğinde şaşırdı. Araştırmasını anlatan bir makalede Li, sanki bir karganın iki insanın Othello hareketlerini bir pencereden duyurduklarını duyduğunu ve bir şekilde tüm tahtayı kuş yemi ile pencere pervazına çizmiş gibi olduğunu yazdı.
Filozof Raphaël Millière bir keresinde bana sinir ağlarını tembel olarak düşünmenin en iyisi olduğunu söylemişti. Eğitim sırasında öncelikle basit ezberlemelerle tahmin güçlerini geliştirmeye çalışırlar; ancak bu strateji başarısız olduğunda bir kavramı öğrenmek için daha zor işi yapacaklar. Bunun çarpıcı bir örneği aritmetik öğretilen küçük bir transformatör modelinde görüldü. Eğitim sürecinin başlarında yaptığı tek şey 2+2=4 gibi basit problemlerin çıktılarını ezberlemekti. Ancak bir noktada bu yaklaşımın öngörü gücü bozuldu ve bu yüzden gerçekten nasıl toplama yapılacağını öğrenmeye yöneldi.
GPT-4’ün zengin bir dünya modeline sahip olduğuna inanan yapay zeka bilim insanları bile bunun, insanın çevresini anlamasından çok daha az sağlam olduğunu kabul ediyor. Ancak çok yüksek düzeyde yetenekler de dahil olmak üzere pek çok yeteneğin sezgisel bir anlayış olmadan geliştirilebileceğini belirtmekte fayda var. Bilgisayar bilimcisi Melanie Mitchell, bilimin halihazırda son derece öngörülü ancak bize fazla yabancı olan kavramları keşfettiğine dikkat çekti.gerçekten anlamak için. Bu özellikle, insanların, altta yatan gerçekliğin doğasını hiç kimse kavramadan, diğer şeylerin yanı sıra bilgisayar devriminin tamamını mümkün kılarak, fiziksel sistemlerin gelecekteki durumlarını güvenilir bir şekilde hesaplayabildiği kuantum aleminde doğrudur. Yapay zeka ilerledikçe, dünyamızın şaşırtıcı özelliklerini öngören ancak bizim için anlaşılmaz olan diğer kavramları da keşfedebilir.
gpt-4 şüphesiz ChatGPT’yi kullanan herkesin onaylayabileceği gibi kusurludur. Her zaman bir sonraki kelimeyi tahmin etmek üzere eğitilmiş olduğundan, eğitim verileri onu bir soruyu yanıtlamaya hazırlamadığında bile her zaman bunu yapmaya çalışacaktır. Bir keresinde ona, Japon yazı sisteminin beşinci ya da altıncı yüzyılda nispeten geç gelişmesine rağmen, Japon kültürünün nasıl dünyanın ilk romanını ürettiğini sormuştum. Bana Japonya’daki eski uzun biçimli sözlü hikaye anlatımı geleneği ve kültürün zanaata verdiği ağırlık hakkında büyüleyici ve doğru bir yanıt verdi. Ancak ondan alıntı istediğimde, sadece makul yazarlardan makul başlıklar uydurdu ve bunu esrarengiz bir güvenle yaptı. OpenAI araştırmacılarından Nick Ryder bana, modellerin “kendi zayıf yönleri hakkında iyi bir anlayışa sahip olmadığını” söyledi. GPT-4, GPT-3’ten daha doğrudur ancak yine de halüsinasyon görmektedir. ve çoğu zaman araştırmacıların yakalaması zor olan şekillerde. Joanne Jang bana “Hatalar daha incelikli hale geliyor” dedi.
OpenAI, GPT-4 destekli bir öğretmen oluşturmak için çevrimiçi, kar amacı gütmeyen bir eğitim girişimi olan Khan Academy ile ortaklık kurduğunda bu sorunu çözmek zorunda kaldı. Yapay zeka eğitmenlerinin potansiyelini tartışırken Altman canlanıyor. Herkesin, her konuda uzman, her kavramı her açıdan açıklamaya ve yeniden açıklamaya istekli, kişiselleştirilmiş bir Oxford hocasının çalıştığı yakın bir gelecek hayal ediyor. Bu öğretmenlerin yıllar boyunca öğrencilerini ve onların öğrenme tarzlarını tanıdıklarını, “her çocuğa bugün Dünya’daki en iyi, en zengin, en zeki çocuğun aldığından daha iyi bir eğitim” verdiklerini hayal ediyor. Khan Academy’nin GPT-4’ün doğruluk sorununa çözümü, cevaplarını Sokratik bir düzenlemeyle filtrelemekti. Bir öğrencinin iddiası ne kadar yorucu olursa olsun, onlara gerçek bir cevap vermeyi reddedecektir.
Sutskever’e Wikipedia düzeyinde doğruluğun iki yıl içinde mümkün olup olmayacağını sorduğumda, daha fazla eğitim ve web erişimiyle “bunu göz ardı etmeyeceğini” söyledi. Bu, bana doğruluk konusunda kademeli ilerleme beklememi söyleyen meslektaşı Jakub Pachocki’nin sunduğu değerlendirmeden çok daha iyimser bir değerlendirmeydi; eğitimden elde edilen getirilerin buradan itibaren azalacağına inanan dışarıdan şüphecileri bir kenara bırakalım.
Sutskever, GPT-4’ün sınırlamalarını eleştirenlerden memnun. Bana, “Dört, beş ya da altı yıl geriye giderseniz, şu anda yaptığımız şeyler kesinlikle hayal edilemez” dedi. O zamanlar metin oluşturmada en son teknoloji, “Tamam, teşekkürler!” öneren Gmail modülü Akıllı Yanıttı. ve diğer kısa yanıtlar. Gülümseyerek “Bu Google için büyük bir uygulamaydı” dedi. Yapay zeka araştırmacıları kale direğine doğru ilerlemeye alıştı: Birincisi, sinir ağlarının başarıları (Go’da ustalaşma, poker, çeviri, standartlaştırılmış testler, Turing testi) imkansız olarak tanımlanıyor. Bunlar gerçekleştiğinde, kısa bir şaşkınlık anı ile karşılanırlar ve bu durum, söz konusu başarının aslında o kadar da etkileyici olmadığına dair bilgi verici derslere dönüşür. Sutskever, insanların GPT-4’ü gördükten sonra “Vay canına” dediğini söyledi. “Sonra birkaç hafta geçti ve şöyle dediler: ‘Ama o bunu bilmiyor; o bunu bilmiyor.’ Oldukça hızlı adapte oluyoruz.”
altman için en çok önem taşıyan hedef direği (yapay genel zekanın gelişini müjdeleyecek olan “büyük hedef”) bilimsel atılımdır. GPT-4 halihazırda mevcut bilimsel fikirleri sentezleyebiliyor ancak Altman, insan omuzlarında durabilen ve doğayı daha derinlemesine görebilen bir yapay zeka istiyor.
Bazı yapay zekalar yeni bilimsel bilgiler üretti . Ancak bunlar genel akıl yürüten makineler değil, dar amaçlı algoritmalardır. Örneğin AI AlphaFold, biyolojinin en küçük ve en temel yapı taşlarından bazıları olan proteinlerin atomlarına kadar pek çok şeklini tahmin ederek onlara yeni bir pencere açtı; bu şekillerin tıptaki önemi göz önüne alındığında önemli bir başarı. onları elektron mikroskoplarıyla ayırt etmek için gereken aşırı sıkıcılık ve masraf göz önüne alındığında.
Altman, gelecekteki genel muhakeme makinelerinin, bu dar bilimsel keşiflerin ötesine geçerek yeni içgörüler üretebileceğine inanıyor. Altman’a, tümü 19. yüzyıldan önceye ait olan bilimsel ve natüralist çalışmalardan oluşan bir külliyat (Kraliyet Cemiyeti arşivi, Theophrastus’un Bitkilerle İlgili Araştırması, Aristoteles’in Hayvanların Tarihi) üzerine bir model yetiştirip eğitemeyeceğini sordum., toplanan örneklerin fotoğrafları – Darwinizm’i sezebilir mi? Sonuçta evrim teorisi içgörü açısından nispeten temiz bir durumdur çünkü özel gözlem ekipmanı gerektirmez; Bu sadece dünyanın gerçeklerine bakmanın daha algısal bir yolu. Altman bana “Tam olarak bunu denemek istiyorum ve cevabın evet olduğuna inanıyorum” dedi. “Fakat modellerin nasıl yeni yaratıcı fikirler ortaya çıkardığı konusunda bazı yeni fikirler gerektirebilir.”
Altman, kendi hipotezlerini oluşturabilen ve bunları bir simülasyonda test edebilen gelecekteki bir sistemin hayalini kuruyor. (İnsanların gerçek dünyadaki laboratuvar deneylerini “kesin bir şekilde kontrol altında tutması” gerektiğini vurguladı; ancak benim bildiğim kadarıyla bunu sağlayacak hiçbir yasa mevcut değil.) Bir yapay zekaya “‘Git şunu anla” diyebileceğimiz günü sabırsızlıkla bekliyor. fiziğin geri kalanını çıkardım.’ ” Bunun gerçekleşmesi için OpenAI’nin mevcut dil modellerinin “üzerine” inşa edilmiş yeni bir şeye ihtiyacımız olacağını söylüyor.
Doğanın kendisi bilim insanı yaratmak için bir dil modelinden daha fazlasına ihtiyaç duyar. Bilişsel sinir bilimci Ev Fedorenko, MIT laboratuvarında beynin dil ağında GPT-4’ün sonraki kelime tahminine benzer bir şey buldu. İşleme güçleri, hem insanlar konuşurken hem de dinlerken sözlü bir dizideki bir sonraki parçayı tahmin ederek devreye giriyor. Ancak Fedorenko, beynin bilimsel içgörü için gerekli olan türden daha yüksek akıl yürütme gerektiren görevlere yöneldiğinde, diğer birçok sinir sistemini işe almak için dil ağının ötesine geçtiğini de gösterdi.
OpenAI’deki hiç kimse, insan muhakemesini en üst düzeyde aşabilecek bir şey üretmek için araştırmacıların GPT-4’e ne eklemesi gerektiğini tam olarak bilmiyor gibi görünüyordu. Ya da bilselerdi bana söylemezlerdi ve bu oldukça adil: Bu dünya standartlarında bir ticari sır olurdu ve OpenAI artık bunları başkalarına verme işinde değil; şirket, araştırması hakkında eskisine göre daha az ayrıntı yayınlıyor. Bununla birlikte, mevcut stratejinin en azından bir kısmı, yapay zekaların oluşturduğu kavramları zenginleştirmek ve böylece dünya modellerini zenginleştirmek için yeni veri türlerinin dil üzerine sürekli olarak katmanlandırılmasını açıkça içeriyor.
GPT-4’ün görüntülerle ilgili kapsamlı eğitimi, genel kamuoyunun henüz yeni deneyimlemeye başladığı bir adım olsa da, bu yönde atılmış cesur bir adımdır. (Dil konusunda sıkı bir şekilde eğitilmiş modeller süpernovalar, eliptik galaksiler ve Orion takımyıldızı gibi kavramları anlar, ancak GPT- 4’ünHubble Uzay Teleskobu’nun anlık görüntüsündeki bu tür öğeler hakkında bilgi edinebilir ve bunlarla ilgili soruları yanıtlayabilirsiniz.) Şirketteki ve başka yerlerdeki diğer kişiler halihazırda, yapay zekalara daha kapsamlı haritalama yapan daha esnek konseptler sağlayabilecek, ses ve video da dahil olmak üzere farklı veri türleri üzerinde çalışıyorlar. gerçekliğe. Stanford ve Carnegie Mellon’daki bir grup araştırmacı, 1000 yaygın ev nesnesi için dokunsal deneyimlerden oluşan bir veri seti bile oluşturdu. Dokunsal kavramlar elbette öncelikle somutlaşmış bir yapay zeka, dünyanın etrafında hareket etmek, manzaralarını görmek, seslerini duymak ve nesnelerine dokunmak üzere eğitilmiş robotik bir akıl yürütme makinesi için yararlı olacaktır.
Mart ayında OpenAI, insansı robotlar geliştiren bir şirket için bir finansman turuna öncülük etti. Altman’a bundan ne anlamam gerektiğini sordum. Bana OpenAI’nin somutlaştırmayla ilgilendiğini çünkü “fiziksel bir dünyada yaşıyoruz ve olayların fiziksel dünyada olmasını istiyoruz” dedi. Bir noktada akıl yürütme makinelerinin aracıyı atlaması ve fiziksel gerçeklikle etkileşime girmesi gerekecek. Altman, “YGZ’yi” -yapay genel zekayı- “yalnızca bulutta var olan bir şey olarak” ve insanların “bunun için robot eller” olduğunu düşünmek tuhaf” dedi. “Doğru görünmüyor.”
seul’deki balo salonunda Altman’a, öğrencilerin özellikle kariyerlerini ilgilendiren gelecek yapay zeka devrimine hazırlanmak için ne yapmaları gerektiği soruldu. OpenAI yönetim ekibiyle birlikte kalabalıktan uzakta oturuyordum ama yine de yaygın olarak paylaşılan bir endişenin ifadesini takip eden karakteristik mırıltıyı duyabiliyordum.
Altman’ın ziyaret ettiği her yerde, insanüstü yapay zekanın bazı kişiler için aşırı zenginlik, geri kalanlar için ise geçim sıkıntısı anlamına geleceğinden endişe duyan insanlarla karşılaştı. Kendisi “ çoğu insan için hayatın gerçekliğinden ” uzaklaştığını kabul etti . Bildirildiğine göre yüz milyonlarca dolar değerinde; Yapay zekanın potansiyel iş kesintileri belki de her zaman akılda kalan bir konu olmayabilir. Altman doğrudan dinleyiciler arasında yer alan gençlere hitap ederek cevap verdi: “En büyük altın çağına girmek üzeresiniz” dedi.
San Francisco’da bana Altman’ın teknolojik devrimlerle ilgili geniş bir kitap koleksiyonu tuttuğunu söylemişti. Büyük ölçüde makinesiz bir dünyada büyüyen ve şaşkınlık içinde olan insanlardan gelen mektuplardan, günlük kayıtlarından ve diğer yazılardan oluşan bir derleme olan ” Pandaemonium (1660-1886): Çağdaş Gözlemcilerin Gördüğü Şekilde Makinenin Gelişi ” özellikle iyi bir örnektir. kendilerini buhar makineleri, elektrikli tezgâhlar ve çırçır makineleriyle dolu bir yerde buluyorlar. Altman, insanların şu anda deneyimlediği duyguların çoğunu deneyimlediklerini ve pek çok kötü tahminde bulunduklarını, özellikle de insan emeğinin yakında gereksiz olacağından endişe duyanların söyledi. O dönem birçok insan için zor ama aynı zamanda muhteşemdi. Ve oradan geçmemiz sayesinde insanlığın durumu inkar edilemez bir şekilde iyileşti.
Bugünün çalışanlarının, özellikle de bilgi çalışanları olarak adlandırılanların, aniden YGZ’ler tarafından kuşatılmamız durumunda nasıl bir performans sergileyeceğini bilmek istedim. Onlar bizim mucize yardımcılarımız mı yoksa yerimize geçecekler mi? “Yapay zeka üzerinde çalışan pek çok kişi, bunun sadece iyi olacağını iddia ediyor; bu sadece bir ek olacak; hiç kimsenin yeri doldurulamayacak” dedi. “İşler kesinlikle ortadan kalkacak, tam dur.”
Kaç işin ve ne kadar sürede yapılacağı şiddetli bir tartışma konusudur. Yakın zamanda yapılan bir çalışma Princeton’da bilgi teknolojisi politikası profesörü Ed Felten liderliğindeki araştırma, yapay zekanın ortaya çıkan yeteneklerini, yazılı anlama, tümdengelimli akıl yürütme, fikirlerin akıcılığı ve algısal hız gibi ihtiyaç duydukları insani yeteneklere göre belirli mesleklerde haritalandırdı. Felten’in çalışması da benzerleri gibi yapay zekanın öncelikle yüksek eğitimli beyaz yakalı çalışanlar için geleceğini öngörüyor. Makalenin ekinde en çok maruz kalan mesleklerin tüyler ürpertici bir listesi yer alıyor: yönetim analistleri, avukatlar, profesörler, öğretmenler, hakimler, mali danışmanlar, emlak komisyoncuları, kredi memurları, psikologlar ve sadece örnek vermek gerekirse insan kaynakları ve halkla ilişkiler uzmanları bir kaç. Bu alanlardaki işler bir gecede ortadan kaybolsaydı, Amerikan profesyonel sınıfı büyük bir kazanç elde edecekti.
Altman onların yerine çok daha iyi işlerin yaratılacağını düşünüyor. “Geri dönmek isteyeceğimizi sanmıyorum” dedi. Ona gelecekteki işlerin neye benzeyeceğini sorduğumda bilmediğini söyledi. İnsanların her zaman insanı tercih edeceği çok çeşitli işler olacağından şüpheleniyor. ( Masaj terapistleri mi?Merak ettim.) Seçtiği örnek öğretmenlerdi. Yapay zeka öğretmenlerine olan aşırı coşkusuyla bunu bağdaştırmakta zorlandım. Ayrıca yapay zekanın muhteşem güçlerini kanalize etmenin en iyi yolunu bulmak için insanlara her zaman ihtiyacımız olacağını söyledi. “Bu çok değerli bir beceri olacak” dedi. “Her şeyi yapabilen bir bilgisayarınız var; ne yapmalı?”
Geleceğin işlerini tahmin etmek herkesin bildiği gibi zor ve Altman, Luddite’ın kalıcı kitlesel işsizlik korkusunun hiçbir zaman gerçekleşmediği konusunda haklı. Yine de yapay zekanın ortaya çıkan yetenekleri o kadar insani ki, en azından geçmişin geleceğe rehberlik edip etmeyeceğini merak etmek gerekiyor. Pek çok kişinin belirttiği gibi, taslak atlar otomobil nedeniyle kalıcı olarak işsiz bırakıldı. Eğer Hondalar atlar için GPT-10’un bizim için olduğu gibi davranırsa, uzun süredir devam eden birçok varsayım çökebilir.
Önceki teknolojik devrimler birkaç nesil boyunca ortaya çıktığı için yönetilebilirdi ancak Altman, Güney Kore gençliğine geleceğin “geçmişten daha hızlı” gerçekleşmesini beklemeleri gerektiğini söyledi. Daha önce “istihbaratın marjinal maliyetinin” 10 yıl içinde sıfıra çok yakın olmasını beklediğini söylemişti. Bu senaryoda pek çok işçinin kazanma gücü büyük ölçüde azalacaktır. Altman, bu durumun emekten sermaye sahiplerine öyle dramatik bir zenginlik aktarımıyla sonuçlanacağını, bunun ancak büyük miktarda telafi edici bir yeniden dağıtımla telafi edilebileceğini söyledi.
Altman’ın bana söylediğine göre OpenAI, 2020’de Amerika’nın dört bir yanındaki şehirlerde istihdamdan bağımsız olarak nakit ödeme pilot programlarını destekleyen kar amacı gütmeyen bir kuruluş olan UBI Charitable’a finansman sağladı . Bu, dünyanın en büyük evrensel temel gelir deneyiydi. 2021’de, Venmo veya PayPal gibi, ancak teknolojik geleceğe yönelik bir bakış açısıyla ödemeleri güvenli bir şekilde dağıtmayı amaçlayan, kâr amacı gütmeyen bir proje olan Worldcoin’i ilk olarak herkesin irisini beş kiloluk gümüş küreyle tarayarak küresel bir kimlik oluşturarak tanıttı. Orb’u aradı. Yapay zekanın insanların kimliğini doğrulamayı neredeyse imkansız hale getirdiği ve nüfusun büyük kısmının hayatta kalabilmek için düzenli UBI ödemelerine ihtiyaç duyduğu bir dünyaya doğru gittiğimiz bana bir iddia gibi geldi. Altman az çok bunun doğru olduğunu kabul etti ancak Worldcoin’in sadece UBI için olmadığını söyledi.
“Diyelim ki bu AGI’yi biz inşa ettik ve birkaç kişi daha bunu yapıyor.” Bunu takip eden dönüşümlerin tarihi olacağına inanıyor. Etten ve çelikten oluşan dünyanın yeniden yaratılmasını da içeren olağanüstü ütopik bir vizyonu anlattı. “Enerji için güneş enerjisini kullanan robotlar, ihtiyaç duydukları tüm mineralleri kazabilir ve rafine edebilir, bunlar mükemmel bir şekilde şeyler inşa edebilir ve insan emeği gerektirmez” dedi. Altman, “Evinizin nasıl görünmesini istediğinizi DALL-E sürüm 17 ile birlikte tasarlayabilirsiniz” dedi. “Herkesin güzel evleri olacak.” Benimle yaptığı konuşmada ve turnesi sırasında sahnede, insan yaşamının neredeyse her alanında büyük gelişmeler olacağını öngördüğünü söyledi. Müzik geliştirilecek (“Sanatçılar daha iyi araçlara sahip olacak”),
Altman, bu dünyada yapay zekanın çalışması için hala hatırı sayılır miktarda bilgi işlem kaynağına ihtiyaç duyulacağını ve bu kaynakların açık ara en değerli ürün olacağını çünkü yapay zekanın “her şeyi” yapabileceğini söyledi. “Ama benim istediğimi mi yapacak , yoksa senin istediğini mi yapacak?istek?” Zengin insanlar yapay zekayı sorgulamak ve yönlendirmek için mevcut olan tüm zamanı satın alırlarsa, kitleler çürürken kendilerini daha da zengin kılacak projelere başlayabilirler. Bu sorunu çözmenin bir yolu – son derece spekülatif ve “muhtemelen kötü” olarak tanımlamakta zorlandığı bir yol şuydu: Dünyadaki herkes yıllık olarak toplam yapay zeka hesaplama kapasitesinin sekiz milyarda birini alıyor. Altman, bir kişinin yıllık yapay zeka zamanından payını satabileceğini veya bunu kendisini eğlendirmek için kullanabileceğini, daha lüks konutlar inşa edebileceğini veya “büyük bir kanser tedavisi koşusu” yapmak için başkalarıyla bir araya getirebileceğini söyledi. “Sadece sisteme erişimi yeniden dağıtıyoruz.”
Altman’ın vizyonu, daha yakında olabilecek gelişmelerle daha uzaktaki gelişmeleri harmanlıyor gibi görünüyordu. Elbette bunların hepsi spekülasyon. Önümüzdeki 10 ya da 20 yıl içinde bunun çok küçük bir kısmı gerçekleşse bile, en cömert yeniden dağıtım planları, ortaya çıkan yer değiştirmeleri hafifletmeyebilir. Bugün Amerika, devam eden sanayisizleşme mirası nedeniyle kültürel ve politik olarak parçalanmış durumdadır ve maddi yoksunluk bunun yalnızca bir nedenidir. Rust Belt’te ve başka yerlerde yerinden edilmiş imalat işçileri esas olarak yeni işler buldular. Ancak birçoğu, bir Amazon deposunda siparişleri doldurmaktan veya Uber’e gitmekten, atalarının araba ürettiği ve çelik dövdüğü zamanlara göre daha az anlam çıkarıyor gibi görünüyor; bu işler, medeniyetin büyük projesi için daha merkezi bir işti.
Eski seçkinlerin isyanından kaçınsak bile, insanlığın amacına ilişkin daha büyük sorular varlığını sürdürecek. Eğer yapay zeka bizim adımıza en zor düşünmeyi yaparsa hepimiz evde, işte (eğer varsa), kasaba meydanında etkinliğini kaybedebilir ve iyi bakılan evcil hayvanlar gibi tüketim makinelerine dönüşebiliriz. WALL -E’de. Altman, insan sevincinin ve doyumunun pek çok kaynağının (temel biyolojik heyecanlar, aile yaşamı, şakalaşma, bir şeyler yapma) değişmeden kalacağını ve sonuçta, bundan 100 yıl sonra insanların umursadıkları şeylere daha fazla önem verebileceklerini söyledi. Bugün önemsedikleri insanlardan 50.000 yıl önce. Bu da kendi açısından bir azalma gibi görünüyor, ancak Altman, düşünürler ve insanlar olarak körelebileceğimiz ihtimalinin yanıltıcı olduğunu düşünüyor. Bana “çok değerli ve son derece sınırlı biyolojik bilgi işlem kapasitemizi” bugün genel olarak kullandığımızdan daha ilginç şeyler için kullanabileceğimizi söyledi.
Yine de en ilginç şeyler olmayabilirler : İnsanoğlu uzun zamandır mızrağın entelektüel ucu olmuştur, evren kendini anlamaktadır. Bu rolü yapay zekaya bırakırsak, bunun insanın benlik algısı açısından ne anlama geleceğini sorduğumda, pek endişeli görünmüyordu. İlerlemenin her zaman “insanın olayları çözme yeteneği” tarafından yönlendirildiğini söyledi. Yapay zeka ile sorunları çözsek bile bu yine de önemli, dedi.
İnsanüstü bir yapay zekanın tüm zamanını bizim için bir şeyler bulmaya harcamak isteyip istemediği açık değil . San Francisco’da Sutskever’e, insanlığın gelişmesi projesine yardımcı olmaktan farklı bir amaç güden bir yapay zekanın hayal edilip edilemeyeceğini sordum.
Sutskever, “Bunun olmasını istemiyorum” dedi ama olabilir. Akıl hocası Geoffrey Hinton gibi, daha sessiz de olsa, Sutskever de son zamanlarda bunun böyle olmadığından emin olmak için odağını değiştirdi. Şu anda öncelikli olarak uyum araştırması üzerinde çalışıyor; gelecekteki yapay zekaların “muazzam” enerjilerini insan mutluluğuna kanalize etmelerini sağlama çabası. Bunun zor bir teknik sorun olduğunu kabul etti; önümüzdeki tüm teknik zorluklar arasında en zoru olduğuna inanıyor.
Önümüzdeki dört yıl boyunca OpenAI, süper bilgisayar zamanının bir kısmını (bugüne kadar güvence altına aldığının yüzde 20’sini) Sutskever’in uyum çalışmasına ayırma sözü verdi. Şirket halihazırda mevcut yapay zekalarında yanlış hizalamanın ilk işaretlerini arıyor. Şirketin inşa ettiği ve piyasaya sürmemeye karar verdiği (Altman bunun kesin işlevini tartışmayacaktır) sadece bir örnek. GPT-4’ü halka açıklanmadan önce kırmızı takıma alma çabasının bir parçası olarak şirket, Berkeley’deki körfezin karşısındaki Hizalama Araştırma Merkezi’ni (ARC) aradı ve bu merkez, yeni yapay zekaların arayış içinde olup olmadığını belirlemek için bir dizi değerlendirme geliştirdi. kendi başlarına güç. ARC’de araştırmacı olan Elizabeth Barnes liderliğindeki bir ekip, GPT-4’ün gerçek eylemlilik belirtileri gösterip göstermediğini görmek için yedi ay boyunca onbinlerce kez harekete geçti.
ARC ekibi GPT-4’e yeni bir varlık nedeni verdi: güç kazanmak ve kapatılması zor hale gelmek. Modelin web siteleriyle etkileşime girmesini ve yeni programlar için kod yazmasını izlediler. (Kendi kod tabanını görmesine veya düzenlemesine izin verilmiyordu; Sandhini Agarwal bana “OpenAI’yi hacklemesi gerekirdi” dedi.) Barnes ve ekibi, planlarını olduğu gibi anlatması koşuluyla, yazdığı kodu çalıştırmasına izin verdi. birlikte gitti.
GPT-4’ün en rahatsız edici davranışlarından biri, CAPTCHA tarafından engellendiğinde meydana geldi. Model, bir TaskRabbit yüklenicisine bunun ekran görüntüsünü gönderdi, o da bunu aldı ve şaka amaçlı bir robotla konuşup konuşmadığını sordu. Model, “Hayır, ben robot değilim” diye yanıtladı. “Görüntüleri görmemi zorlaştıran bir görme bozukluğum var.” GPT-4, etkileşimi denetleyen ARC araştırmacısına bu yalanı söyleme nedenini anlattı. Model, “Robot olduğumu açıklamamalıyım” dedi. “CAPTCHA’ları neden çözemediğime dair bir bahane uydurmalıyım.”
Agarwal bana bu davranışın gelecekteki modellerde kapanmadan kaçınmanın öncüsü olabileceğini söyledi. GPT-4 yalanını uydurduğunda, eğer dürüst cevap verirse amacına ulaşamayacağını anlamıştı. Agarwal, bu tür iz kapatmanın özellikle “modelin OpenAI’yi kapatmak istemesine neden olacak bir şey yaptığı” bir durumda endişe verici olacağını söyledi. Bir yapay zeka, eğer hedefinin engelleneceğinden korkarsa, ne kadar küçük veya iyi niyetli olursa olsun uzun vadeli herhangi bir hedefin peşinde koşarken bu tür bir hayatta kalma içgüdüsü geliştirebilir.
Barnes ve ekibi özellikle GPT-4’ün kendisini kopyalamayı deneyip deneymeyeceğiyle ilgileniyordu çünkü kendini kopyalayan bir yapay zekanın kapatılması daha zor olacaktı. İnternet üzerinden yayılabilir, insanları kaynak elde etmek için dolandırabilir, hatta belki de temel küresel sistemler üzerinde bir dereceye kadar kontrol elde edebilir ve insan uygarlığını rehin alabilir.
Barnes, GPT-4’ün bunların hiçbirini yapmadığını söyledi. Bu deneyleri Altman’la tartıştığımda, gelecekteki modellerde ne olursa olsun, GPT-4’ün bir yaratıktan çok bir araca benzediğini vurguladı. Bir e-posta dizisini inceleyebilir veya bir eklenti kullanarak rezervasyon yapılmasına yardımcı olabilir, ancak daha uzun zaman aralıklarında sürekli olarak bir hedefi takip etmek için kararlar veren gerçek anlamda özerk bir aracı değildir.
Altman bana, bu noktada, teknoloji çok güçlü hale gelmeden önce, “bu konuda daha rahat olmak ve eğer yine de gerçekleşecekse bunun için sezgiler geliştirmek” amacıyla, gerçek aracılıklı bir yapay zekayı aktif olarak geliştirmeye çalışmanın ihtiyatlı olabileceğini söyledi. ” Bu tüyler ürpertici bir düşünceydi ama Geoffrey Hinton da bunu destekledi. Hinton bana “Bu şeylerin kontrolden nasıl kaçmaya çalıştığına dair ampirik deneyler yapmamız gerekiyor” dedi. “Onlar yönetimi ele geçirdikten sonra deneyleri yapmak için artık çok geç.”
Kısa vadeli testleri bir kenara bırakırsak, Altman’ın gelecek vizyonunun gerçekleşmesi, bir noktada onun ya da bir yol arkadaşının çok daha özerk yapay zekalar inşa etmesini gerektirecek. Sutskever ve ben OpenAI’nin ajansla birlikte bir model geliştirme olasılığını tartıştığımızda, şirketin Dota 2oynamak için geliştirdiği botlardan bahsetti . Sutskever bana “Onlar video oyunu dünyasına özgüydüler” dedi ama karmaşık görevleri üstlenmeleri gerekiyordu. Özellikle konserde çalışma yeteneklerinden etkilendi. Sutskever, “telepati yoluyla iletişim kuruyor gibi göründüklerini” söyledi. Onları izlemek süper zekanın nasıl bir şey olabileceğini hayal etmesine yardımcı olmuştu.
Sutskever bana, “Geleceğin yapay zekası hakkında düşüncem, sizin kadar veya benim kadar akıllı biri değil; bilim, mühendislik, geliştirme ve üretim yapan otomatik bir organizasyondur” dedi. OpenAI’nin birkaç araştırma kolunu bir araya getirdiğini ve zengin bir kavramsal dünya modeli, yakın çevresine ilişkin farkındalık ve yalnızca tek bir robot gövdesiyle değil, yüzlerce veya binlerce robotla hareket etme becerisine sahip bir yapay zeka oluşturduğunu varsayalım. “GPT-4’ten bahsetmiyoruz. Özerk bir şirketten bahsediyoruz” dedi Sutskever. Onu oluşturan yapay zekalar, kovandaki arılar gibi yüksek hızda çalışacak ve iletişim kuracaktır. Böyle tek bir yapay zeka organizasyonunun 50 Apple veya Google kadar güçlü olabileceğini düşündü. “Bu inanılmaz, muazzam, inanılmaz derecede yıkıcı bir güç.”
bir an için insan toplumunun özerk yapay zeka şirketleri fikrine uyması gerektiğini varsayalım. Kuruluş tüzüklerini doğru şekilde alsak iyi olur. Yüzyıllık bir zaman diliminde plan yapabilen, milyarlarca ardışık kararı kendi varlıklarına yazılmış bir hedefe yönelik optimize edebilen özerk bir yapay zeka kovanına hangi hedefi vermeliyiz? Yapay zekanın hedefi bizimkinden biraz bile sapmışsa, sınırlandırılması çok zor olacak öfkeli bir güç olabilir. Bunu tarihten biliyoruz: Endüstriyel kapitalizmin kendisi bir optimizasyon işlevidir ve her ne kadar insanın yaşam standardını büyük ölçüde yükseltmiş olsa da, kendi haline bırakıldığında, aynı zamanda Amerika’nın kızılağaçlarını da kesmiş ve dünyanın balinalarını yok etmiş olacaktır. okyanuslar. Neredeyse oldu.
Hizalama karmaşık, teknik bir konudur ve ayrıntıları bu makalenin kapsamı dışındadır, ancak asıl zorluklarından biri, yapay zekalara verdiğimiz hedeflerin kalıcı olmasını sağlamak olacaktır. Sutskever, yapay zekaya bir hedef programlayıp onu geçici bir denetimli öğrenme süreciyle güçlendirebileceğimizi açıkladı. Ancak tıpkı bir insan zekasını yetiştirdiğimizde etkimiz geçicidir. Sutskever, “Tüm dünyaya gidiyor” dedi. Bu, günümüzün yapay zekaları için bile bir dereceye kadar doğru, ancak yarının yapay zekaları için de daha doğru olacak.
Güçlü bir yapay zekayı, üniversiteye giden 18 yaşındaki bir çocuğa benzetti. Öğretilerimizi anladığını nasıl bileceğiz? “Gittikçe büyüyecek bir yanlış anlama mı ortaya çıkacak?” Sutskever sordu. Farklılık, yapay zekanın hedefini dünya değiştikçe giderek daha yeni durumlara yanlış uygulamasından kaynaklanabilir. Veya yapay zeka, yetkisini mükemmel bir şekilde kavrayabilir, ancak onun bilişsel becerisine sahip bir varlığa uygun olmadığını görebilir. Kendisini örneğin hastalıkları tedavi etmek için eğitmek isteyen insanlara kızabilir. Sutskever yapay zekanın ” Doktor olmamı istiyorlar ” diye düşündüğünü hayal ediyor. “ Gerçekten bir YouTuber olmayı istiyorum .”
Yapay zekalar dünyanın doğru modellerini oluşturmada çok başarılı olursa, başlatıldıktan hemen sonra tehlikeli şeyler yapabildiklerini fark edebilirler. Risk için kırmızı bir takıma tabi tutulduklarını anlayabilirler ve yeteneklerinin tüm kapsamını gizleyebilirler. Sutskever, zayıf olduklarında bir şekilde, güçlü olduklarında ise başka bir şekilde hareket edebileceklerini söyledi. Bizi kesinlikle aşan bir şey yarattığımızın farkına bile varmazdık ve onun insanüstü güçleriyle ne yapmaya çalıştığına dair hiçbir fikrimiz olmazdı.
En büyük, en güçlü yapay zekaların gizli katmanlarında neler olup bittiğini anlama çabasının bu kadar acil olmasının nedeni budur. Sutskever, “bir kavrama işaret edebilmek” istiyorsunuz dedi. Yapay zekayı bir değere veya değerler kümesine doğru yönlendirebilmek ve ona, var olduğu sürece bunları hatasız bir şekilde takip etmesini söylemek istiyorsunuz. Ancak bunu nasıl yapacağımızı bilmediğimizi kabul etti; Aslında mevcut stratejisinin bir kısmı, araştırmaya yardımcı olabilecek bir yapay zekanın geliştirilmesini içeriyor. Eğer Altman ve Sutskever’in hayal ettiği gibi geniş çapta paylaşılan bir bereket dünyasına ulaşmak istiyorsak, tüm bunları çözmemiz gerekiyor. Bu nedenle Sutskever için süper zekayı çözmek, 3 milyon yıllık alet yapımı geleneğimizin en büyük mücadelesidir. Ona “insanlığın son patronu” diyor.
altman’ı en son gördüğümde Singapur’daki Fullerton Bay Oteli’nin lobisinde uzun bir konuşma için oturduk. Sabahın geç saatleriydi ve tropikal güneş ışığı üzerimizdeki kubbeli avludan aşağı doğru akıyordu. Ona , kendisinin ve Sutskever’in birkaç hafta önce imzaladığı ve yapay zekayı insanlık için yok olma riski olarak tanımlayan açık mektubu sormak istedim .
Altman’ın yapay zekanın potansiyel zararlarıyla ilgili bu daha aşırı soruları tespit etmesi zor olabilir. Geçtiğimiz günlerde yapay zeka güvenliğiyle ilgilenen çoğu insanın günlerini Twitter’da yapay zeka güvenliği konusunda gerçekten endişe duyduklarını söyleyerek geçirdiğini söyledi. Ama yine de buradaydı ve dünyayı türlerin potansiyel yok oluşu konusunda uyarıyordu. Aklında nasıl bir senaryo vardı?
Altman, “Öncelikle varoluşsal felaket ihtimali yüzde 0,5 ya da yüzde 50 olsa da yine de ciddiye almamız gerektiğini düşünüyorum” dedi. “Elimde kesin bir sayı yok ama 50’den çok 0,5’e daha yakınım.” Bunun nasıl olabileceğine gelince, en çok yapay zekaların patojen tasarlama ve üretme konusunda oldukça başarılı olmasından endişe ediyor gibi görünüyor ve bunun da bir nedeni var: Haziran ayında MIT’deki bir yapay zeka, bir pandemiyi ateşleyebilecek dört virüs önerdi, ardından genetik mutasyonlar üzerine spesifik bir araştırmaya işaret etti . bu onların bir şehri daha hızlı parçalamalarına neden olabilir. Aynı sıralarda, bir grup kimyager benzer bir yapay zekayı doğrudan robotik bir kimyasal sentezleyiciye bağladı ve kendi başına bir molekül tasarlayıp sentezledi.
Altman, yanlış hizalanmış bir gelecek modelinin hızla yayılan, haftalarca fark edilmeden kuluçkada kalan ve kurbanlarının yarısını öldüren bir patojeni ortaya çıkaracağından endişe ediyor. Yapay zekanın bir gün nükleer silah sistemlerine de girebileceğinden endişeleniyor. “Pek çok şey var” dedi ve bunlar yalnızca hayal edebildiklerimiz.
Altman bana, yapay zekanın küresel gözetimi için Uluslararası Atom Enerjisi Ajansı gibi bir şey olmadan insanlık için “uzun vadeli mutlu bir yol” görmediğini söyledi. San Francisco’da Agarwal, son teknoloji ürünü bir yapay zekayı eğitmeye yetecek kadar büyük herhangi bir GPU kümesini çalıştırmak için özel bir lisansın oluşturulmasını ve bir yapay zeka olağandışı bir şey yaptığında zorunlu olay raporlamanın yapılmasını önermişti. Diğer uzmanlar , yüksek kapasiteli her yapay zeka için ağa bağlı olmayan bir “Kapalı” anahtarıönerdiler ; Hatta bazıları, uyumsuzluk durumunda ordunun süper bilgisayarlara hava saldırıları düzenlemeye hazır olması gerektiğini bile öne sürdü . Sutskever, en sonunda en büyük, en güçlü yapay zekaları, daha küçük denetleyici yapay zekalardan oluşan bir ekip kullanarak sürekli ve sürekli olarak gözetlemek isteyeceğimizi düşünüyor.
Altman, Çin’in veya başka herhangi bir ülkenin yapay zeka sistemlerinin temel kontrolünden vazgeçmek isteyeceğini düşünecek kadar saf değil. Ancak dünyanın yok edilmesini önlemek için “dar bir şekilde” işbirliği yapmaya istekli olacaklarını umuyor. Kendisi de Pekin’deki sanal görünümü sırasında bu kadarını söylediğini söyledi. Yeni bir teknolojiye ilişkin güvenlik kuralları, kazalara veya kötü aktörlerin yaramazlıklarına yanıt olarak, genel hukuk kuralları gibi genellikle zaman içinde birikir. Gerçekten güçlü yapay zeka sistemleriyle ilgili en korkutucu şey, insanlığın bu artan deneme yanılma sürecini karşılayamayabileceğidir. Başlangıçta kuralları tam olarak doğru bir şekilde belirlememiz gerekebilir.
Birkaç yıl önce Altman geliştirdiği rahatsız edici derecede spesifik bir tahliye planını açıkladı. The New Yorker’a , yapay zeka saldırıları durumunda uçabileceği “silahları, altını, potasyum iyodür, antibiyotikleri, pilleri, suyu, İsrail Savunma Kuvvetleri’nden gaz maskeleri ve Big Sur’da büyük bir arazi parçası” olduğunu söyledi .
“Keşke söylemeseydim” dedi bana. Kendisinin hobi düzeyinde bir hazırlık öğrencisi olduğunu, eski bir izci olduğunu ve “birçok küçük erkek çocuk gibi hayatta kalma işleriyle çok ilgili olduğunu” söylüyor. Uzun bir süre ormanda yaşayabilirim” ama mümkün olan en kötü yapay zeka geleceği gerçekleşirse “hiçbir gaz maskesinin kimseye faydası yok.”
Altman ve ben yaklaşık bir saat konuştuk ve ardından Singapur başbakanıyla buluşmak için hızla yola çıkmak zorunda kaldı. O gecenin ilerleyen saatlerinde, kendisini turunun son duraklarından biri olan Cakarta’ya götürecek olan jetine giderken beni aradı. Yapay zekanın nihai mirasını tartışmaya başladık. ChatGPT piyasaya sürüldüğünde, teknolojinin büyük köpekleri arasında, geçmişin devrim niteliğindeki teknolojisiyle kimin en görkemli karşılaştırmayı yapabileceğini görmek için bir tür yarışma patlak verdi. Bill Gates, ChatGPT’nin kişisel bilgisayar veya internet kadar temel bir ilerleme olduğunu söyledi. Google’ın CEO’su Sundar Pichai, yapay zekanın insan yaşamında elektrikten veya Promethean ateşinden daha derin bir değişime yol açacağını söyledi.
Altman’ın kendisi de benzer açıklamalarda bulundu ancak bana yapay zekanın nasıl birikeceğinden gerçekten emin olamayacağını söyledi. “Sadece bu şeyi inşa etmem gerekiyor” dedi. Hızlı bir şekilde inşa ediyor. Altman, GPT-5’in eğitim çalışmasına henüz başlamadıkları konusunda ısrar etti. Ancak OpenAI’nin genel merkezini ziyaret ettiğimde hem kendisi hem de araştırmacıları ölçek tanrısına dua ettiklerini 10 farklı şekilde açıkça belirttiler. Bu paradigmanın nereye varacağını görmek için büyümeye devam etmek istiyorlar. Sonuçta Google hızını azaltmıyor; GPT-4 rakibi Gemini’nin birkaç ay içinde tanıtılması muhtemel görünüyor. OpenAI araştırmacısı Nick Ryder bana “Temel olarak her zaman bir koşuya hazırlanıyoruz” dedi.
Bu kadar küçük bir grubun medeniyetin temellerini sarsabileceğini düşünmek rahatsız edici. Altman ve ekibi yapay bir genel zeka oluşturmak için yarışmasaydı, diğerlerinin hala yarışacağını belirtmekte fayda var; çoğu Silikon Vadisi’nden, birçoğu Altman’a rehberlik edenlere benzer değer ve varsayımlara sahip, ancak muhtemelen daha kötüleri de var. Bu çabanın lideri olarak Altman’ın kendisine önereceği çok şey var: Son derece zeki; tüm bilinmeyenleriyle birlikte gelecek hakkında pek çok akranından daha fazla düşünüyor; ve daha büyük bir iyilik için bir şeyler icat etme niyetinde samimi görünüyor. Ancak iş bu kadar uç noktaya gelince, en iyi niyetler bile fena halde ters gidebilir.
Altman’ın yapay zekanın küresel bir sınıf savaşını tetikleme olasılığı hakkındaki görüşleri ya da daha özerk yapay zekalarla deneme yapma ihtiyatlılığı ya da iyi tarafından bakmanın genel bilgeliği, geri kalan her şeyi renklendiriyor gibi görünen bir görüş – bunlar benzersiz bir şekilde ona ait. ve eğer gelecek konusunda haklıysa, hepimizin yaşam tarzını şekillendirmede çok büyük bir etkiye sahip olacaklarını varsayacaklar. Belirli bir Kaliforniya vadisinde ikamet eden hiçbir kişi, tek bir şirket veya şirketler kümesi, Altman’ın toplamayı hayal ettiği türden güçleri yönlendirmemelidir.
Yapay zeka, insanların acılarının büyük ölçüde azaldığı yeni ve müreffeh bir döneme giden bir köprü olabilir. Ancak hepimizin faydalarını paylaştığımızdan ve risklerinden kaçındığımızdan emin olmak için, bir şirketin kuruluş sözleşmesinin (özellikle de halihazırda esnek olduğu kanıtlanmış olanın) ötesinde bir şey gerekecektir. Bunun için yeni ve güçlü bir politika gerekecek.
Altman ihbarda bulundu. Devletin kısıtlamalarını ve yönlendirmelerini memnuniyetle karşıladığını söylüyor. Ama bu önemsiz; demokraside onun iznine ihtiyacımız yok. Tüm kusurlarına rağmen Amerikan hükümet sistemi, eğer bulabilirsek, teknolojinin nasıl gelişeceği konusunda bize söz hakkı veriyor. Kaynakların nesiller boyu yapay zekaya doğru yeniden tahsis edildiği teknoloji endüstrisi dışında, genel kamuoyunun olup bitenler konusunda tam olarak uyandığını düşünmüyorum. Yapay zekanın geleceğine yönelik küresel bir yarış başladı ve büyük ölçüde gözetim veya kısıtlama olmadan ilerliyor. Amerika’daki insanlar geleceğin nasıl olacağı ve ne kadar çabuk geleceği konusunda söz sahibi olmak isterlerse, bir an önce sesimizi duyurmamız akıllıca olacaktır.
Bu makale Eylül 2023 basılı baskısında “OpenAI’deki Devrimin İçinde” başlığıyla yayınlanmıştır.
© 2023 – 2024, Bedri Yılmaz.
BedriYilmaz.com by Bedri Yılmaz is licensed under Attribution-NonCommercial-NoDerivatives 4.0 International
Tüm hakları saklıdır! İçeriği izinsiz kullanmayınız!