“Duyarlılık” Yanlış Sorudur – O’Reilly


6 Haziran’da, bir Google mühendisi olan Blake Lemoine, bir bilgiyi ifşa ettiği için Google tarafından askıya alındı. LaMDA ile yaptığı bir dizi konuşma, Google’ın NDA’sını ihlal eden etkileyici büyük modeli. Lemoine’nin LaMDA’nın “duyarlılığa” ulaştığına dair iddiası, hemen hemen her AI uzmanı tarafından geniş çapta yayınlandı ve eleştirildi. Nando deFreitas’tan sadece iki hafta sonra, tweet atmak DeepMind’in yeni Gato modeli hakkında, yapay genel zekanın sadece bir ölçek meselesi olduğunu iddia etti. Ben uzmanlarla birlikteyim; Bence Lemoine kendi inanma isteğine kapıldı ve DeFreitas’ın genel zeka konusunda yanıldığına inanıyorum. Ama aynı zamanda “duyarlılık” ve “genel zeka”nın tartışmamız gereken sorular olmadığını düşünüyorum.

En yeni nesil modeller, bazı insanları zeki olduklarına ve bu insanların kendilerini kandırıp kandırmadıklarına ikna edecek kadar iyidir. Konuşmamız gereken, bu modelleri inşa eden araştırmacıların halka karşı ne tür sorumluluklara sahip olduğudur. Google’ın çalışanlarından bir Gizlilik Sözleşmesi imzalamasını isteme hakkını tanıyorum; ancak bir teknolojinin genel zeka kadar potansiyel olarak geniş kapsamlı etkileri olduğunda, onu gizli tutmakta haklılar mı? Veya soruya diğer yönden bakıldığında, bu teknolojiyi kamuoyunda yanlış anlamalara ve hiçbirinin garanti edilmediği yerde paniğe neden olacak mı?


“Duyarlılık” Yanlış Sorudur – O'Reilly

Daha hızlı öğrenin. Daha derin kaz. Daha uzağa bakın.

Google, OpenAI ve Facebook’a ek olarak AI’yı ileriye taşıyan üç büyük aktörden biridir. Bu üçü açıklığa karşı farklı tavırlar sergilemiştir. Google, büyük ölçüde akademik makaleler ve basın bültenleri aracılığıyla iletişim kurar; başarılarının şatafatlı duyurularını görüyoruz, ancak modellerini gerçekten deneyebilecek insan sayısı son derece az. OpenAI hemen hemen aynıdır, ancak API’lerinin üzerine yeni ürünler oluşturmanın yanı sıra GPT-2 ve GPT-3 gibi modellerin test sürüşünü de mümkün kılmıştır—GitHub Copilot sadece bir örnektir. Facebook’un sahip olduğu açık kaynaklı en büyük modeli OPT-175Bönceden oluşturulmuş birkaç küçük model ve OPT-175B’nin nasıl eğitildiğini açıklayan hacimli notlarla birlikte.

“Açıklığın” bu farklı versiyonlarına bilimsel yöntemin merceğinden bakmak istiyorum. (Ve bu araştırmanın bilimle değil, mühendislikle ilgili olduğunun farkındayım.) Çok genel olarak konuşursak, herhangi bir yeni bilimsel ilerlemeden üç şey istiyoruz:

  • Geçmiş sonuçları yeniden üretebilir. Bu kriterin bu bağlamda ne anlama geldiği belli değil; örneğin bir yapay zekanın Keats’in şiirlerini yeniden üretmesini istemiyoruz. Daha yeni bir modelin en az eski bir model kadar iyi performans göstermesini isteriz.
  • Gelecekteki fenomenleri tahmin edebilir. Bunu (en azından) inandırıcı ve okunabilir yeni metinler üretebilmek olarak yorumluyorum. Birçok AI modelinin bunu başarabileceği açıktır.
  • Tekrarlanabilir. Başka biri aynı deneyi yapabilir ve aynı sonucu alabilir. Soğuk füzyon bu testi kötü bir şekilde geçmektedir. Peki ya büyük dil modelleri?

Ölçekleri nedeniyle, büyük dil modellerinin tekrarlanabilirlikle ilgili önemli bir sorunu vardır. Facebook’un OPT-175B’sinin kaynak kodunu indirebilirsiniz, ancak erişiminiz olan herhangi bir donanım üzerinde kendiniz eğitemezsiniz. Üniversiteler ve diğer araştırma kurumları için bile çok büyük. Yine de Facebook’un söylediğini yaptığı sözünü almanız gerekiyor.

Bu sadece AI için bir sorun değil. 90’lı yıllardaki yazarlarımızdan biri, lisansüstü eğitimden Harvard’da büyük ölçekli dağıtılmış bilgi işlem araştırdığı profesörlüğe geçti. Göreve başladıktan birkaç yıl sonra, Google Research’e katılmak için Harvard’dan ayrıldı. Google’a geldikten kısa bir süre sonra, “Herhangi bir üniversitede çalışabileceğimden çok daha büyük ve daha ilginç problemler üzerinde çalışmak” Bu önemli bir soruyu gündeme getiriyor: endüstriyel süreçlerin boyutuna ölçeklenemediğinde akademik araştırma ne anlama gelebilir? Kim bu ölçekte araştırma sonuçlarını tekrarlama yeteneğine sahip olacak? Bu sadece bilgisayar bilimi için bir sorun değil; yüksek enerji fiziğindeki birçok yeni deney, yalnızca Büyük Hadron Çarpıştırıcısında (LHC) ulaşılabilen enerjileri gerektirir. Dünyada çoğaltılabilecekleri tek bir laboratuvar varsa sonuçlara güvenebilir miyiz?

Büyük dil modellerinde yaşadığımız problem tam olarak bu. OPT-175B, Harvard veya MIT’de çoğaltılamaz. Yeterli bilgi işlem kaynaklarına sahip olmalarına rağmen muhtemelen Google ve OpenAI tarafından çoğaltılamaz. OPT-175B’nin Facebook’un altyapısına (özel donanım dahil) Google’ın altyapısında yeniden üretilemeyecek kadar yakından bağlı olduğuna bahse girerim. Aynı şeyin LaMDA, GPT-3 ve diğer çok büyük modeller için de geçerli olduğuna bahse girerim, onları yapıldıkları ortamdan çıkarırsanız. Google kaynak kodunu LaMDA’ya yayınlasaydı, Facebook bunu altyapısında çalıştırmakta sorun yaşardı. Aynısı GPT-3 için de geçerlidir.

Öyleyse: Önemli deneyleri yeniden üretmek için gereken altyapının yeniden üretilemediği bir dünyada “tekrarlanabilirlik” ne anlama gelebilir? Cevap, kendi sorularını sorabilmeleri ve çok çeşitli sonuçları görebilmeleri için dışarıdan araştırmacılara ve ilk benimseyenlere ücretsiz erişim sağlamaktır. Bu modeller yalnızca oluşturuldukları altyapı üzerinde çalışabileceğinden, bu erişimin genel API’ler aracılığıyla olması gerekir.

Büyük dil modelleri tarafından üretilen çok sayıda etkileyici metin örneği vardır. LaMDA’lar gördüklerimin en iyisi. Ama aynı zamanda biliyoruz ki, bu örneklerin büyük bir kısmı yoğun bir şekilde seçilmiştir. Ve kesinlikle tesadüfi olan birçok başarısızlık örneği var. Güvenli, kullanılabilir sistemler inşa etmek istiyorsak, başarısızlıklara (kiraz toplanmış olsun ya da olmasın) dikkat etmenin, başarıları alkışlamaktan daha önemli olduğunu savunuyorum. Duyarlı olsun ya da olmasın, kendi kendini süren bir arabanın kaza anında San Francisco sokaklarında güvenli bir şekilde gezinmesinden daha çok önemsiyoruz. Bu sadece dramaya olan (duygusal) eğilimimiz değil; kazaya karıştıysanız, bir kaza gününüzü mahvedebilir. Bir doğal dil modeli ırkçı çıktılar üretmeyecek şekilde eğitildiyse (ve bu hala çok fazla araştırma konusu), başarısızlıkları başarılarından daha önemlidir.

OpenAI bunu göz önünde bulundurarak, başlangıçta sınırlı bir ücretsiz deneme programı aracılığıyla ve şimdi müşterilerin API’ler aracılığıyla eriştiği ticari bir ürün olarak GPT-3’ü başkalarının kullanmasına izin vererek başarılı oldu. GPT-3’ün komplo teorileri (veya sadece basit pazarlama) için saha oluşturma yeteneğinden haklı olarak endişe duysak da, en azından bu riskleri biliyoruz. GPT-3’ün yarattığı tüm faydalı çıktılar için (aldatıcı olsun ya da olmasın), hatalarını da gördük. Kimse GPT-3’ün duyarlı olduğunu iddia etmiyor; çıktısının girdisinin bir fonksiyonu olduğunu anlıyoruz ve onu belirli bir yöne yönlendirirseniz, aldığı yön budur. GitHub Copilot (GPT-3’ten oluşturulmuş OpenAI Codex’ten oluşturulmuş) ilk piyasaya sürüldüğünde, programcıların işlerini kaybetmelerine neden olacağına dair birçok spekülasyon gördüm. Copilot’u gördüğümüze göre, sınırlamaları dahilinde yararlı bir araç olduğunu ve iş kaybı tartışmalarının artık sona erdiğini anlıyoruz.

Google, LaMDA için bu tür bir görünürlük sunmadı. Fikri mülkiyet, kötüye kullanım sorumluluğu veya halkın yapay zeka korkusunu alevlendirme konusunda endişeleri olup olmadığı önemsizdir. LaMDA ile halka açık deneyler olmadan, korkulu ya da kendinden geçmiş olsun, çıktılarına yönelik tutumlarımız en azından gerçekliğe olduğu kadar fanteziye de dayanır. Uygun önlemleri alıp almadığımız, açıkta yapılan araştırmalar ve GPT-3 gibi sistemlerle oynama (ve hatta bunlardan ürünler üretme) yeteneği, “derin sahtekarlıkların” sonuçlarından haberdar olmamızı sağladı. Bunlar gerçekçi korkular ve endişelerdir. LaMDA ile gerçekçi korku ve endişelerimiz olamaz. Sadece hayali olanlara sahip olabiliriz – ki bunlar kaçınılmaz olarak daha kötüdür. Tekrarlanabilirliğin ve deneylerin sınırlı olduğu bir alanda, yapabileceğimiz en iyi şey, yabancıların deney yapmasına izin vermek olabilir.




Kaynak : https://www.oreilly.com/radar/sentience-is-the-wrong-question/

Yorum yapın

SMM Panel