pay

Uzay yolculuğu ve elektrikli arabalar arasında yapay zeka: gelecek gelecek

Yapay zekada bugüne kadar kaydedilen ilerleme şaşırtıcı. Elde edilen sonuçlar kadar elde edilme hızlarında da önemliler - Ama dünyadaki en zeki adamdan çok, çok daha parlak bir yapay zekaya sahip olabiliriz. Ama belki de bu tehlikeli bir durum olacaktır.

Gelecekle ilgili görüşler

Yakın zamanda Dubai'de düzenlenen Dünya Hükümeti Zirvesi'nde şirketinin elektrikli arabalarını tanıtmak için konuşan Elon Musk, insanlığın kısa süre sonra yüzleşmek ve üstesinden gelmek zorunda kalacağına inandığı sorunları ve zorlukları örnekleyerek farklı sorunları ele almayı ihmal etmedi. Güney Afrika kökenli milyoner, her zamanki gibi, geniş bir yelpazeyi kapsıyordu: yapay zekanın geliştirilmesinden kaynaklanan bilinmeyenlerden ve olası sosyal yansımalardan, hareketliliğe, gezegenler arası ve neden olmasın, hatta yıldızlar arası seyahate, olası senaryoların ana hatlarına kadar. yakın gelecek için, yine de orta ve uzun vadeli bir ufka doğru bazı fikirler de gözden kaçırılmadı.

Pek çok kişi tarafından bir vizyoner, yarının gerçekliğinin ne olacağını tahmin eden biri, uzay yolculuğunun öncüsü (SpaceX), elektrikli mobilitenin destekçisi (Tesla), yakın zamanda eko-sürdürülebilir enerjinin (Solar City) savunucusu olarak kabul edilen, O kadar hırslı, o kadar zengin ki Musk, insanlığa fayda sağlayabilecek çözümler aradığını söylüyor. Her ne kadar iftiracılar eksik olmasa ve sağduyu bir zorunluluk olsa da, sürekli ileriye bakan parlak bir zekası ve beğenip beğenmediğiniz dünyanın kaderini hayal etmede ve şekillendirmede bir rolü olan parlak bir zekası inkar edilemez. Gelmek.

Bu nedenle, bize söyleyeceklerini dinlemeye ve ardından, muhtemelen önemsiz olmaktan çok uzak olan konuları düşünmeye ve sorgulamaya değer. Burada yapay zeka ile ilgili bazı konuları derinleştireceğim ve bunu Musk'ın konuşmasından çıkarılan bazı cümlelerden yola çıkarak yapacağım.

En rahatsız edici konulardan biri yapay zekadır… derin yapay zeka veya bazen genel yapay zeka olarak adlandırılan, dünyadaki en zeki insandan çok, çok daha akıllı yapay zekaya sahip olabileceğimiz şeydir. Bunun tehlikeli bir durum olacağını düşünüyorum.

Yapay zekada bugüne kadar kaydedilen ilerleme şaşırtıcı. Bunlar, elde edilme hızları kadar, elde edilen sonuçlar için de önemlidir. Yavaşlamak yerine gittikçe daha fazla hızlanan, görünüşte durdurulamaz ve son derece hızlı bir yürüyüş. Aslında, mikroişlemcilerdeki transistörlerin artmasıyla ilgili olarak Moore yasasının öngördüğüne uygun olarak, üstel bir eğilim izleme eğilimindedir. Zihnimiz için aslında tuzakları gizleyen bir ritim.

2047'de tekillik bizi bekliyor, Masayoshi Son'un sözü

Gerçek şu ki, Erik Brynjolfsson ve Andrew McAfee'ye (The Second Machine Age, 2014) yapay zeka alanındaki ilerlemenin matematiksel açıdan sabit olmasına rağmen gözümüze düzenli görünmediğini açıklayın. İki yazar bunu, Hemingway'den bir insanı yıkıma götüren sarmala atıfta bulunan bir cümle ödünç alarak açıklıyor: "kademeli ve sonunda ani".

Bu, üstel ilerlemenin, görünüşte ani bir ivmenin meydana geldiği ve niceliklerin ölçülemez, hatta hayal edilemez ve bu nedenle hiç yönetilemez hale geldiği bir noktaya kadar, başlangıçta neredeyse ihmal edilebilir olan kademeli bir büyüme kaydettiği anlamına gelir.

Başka bir deyişle, bu hızda devam edersek, makinelerin (bazılarına göre, kendilerini otonom olarak geliştirmelerine ve muhtemelen kendi öz farkındalıklarını geliştirmelerine izin verecek kadar evrim geçirebilen) etkin bilgi işlem gücü ile erkeğin onu kavrama, kontrol altına alma, tahmin etme ve sonra kontrol etme kapasitesi. Bu derin duraklama anı, Tekillik adını alır. Tekillik hâlâ bir varsayımı temsil etse ve oybirliğiyle bir fikir birliği toplamasa da, giderek daha somut ve ne yazık ki yakın görünen bir olasılığı tanımlıyor.

Geçenlerde Barselona'da düzenlenen Mobil Dünya Kongresi'nde konuşan Softbank Robotics'in CEO'su Masayoshi Son, otuz yıl içinde tek bir mikroişlemcinin içindeki IQ'nun aramızdaki en zekiden çok daha yüksek olacağını belirtti. “Bundan otuz yıl sonra ayakkabılarımıza taktığımız herhangi bir çip, beynimizden daha akıllı olacak. Ayakkabılarımızdan daha az değerli olacağız."

Son, tahminini beynimizdeki nöronların sayısı ile bir çip üzerindeki transistörlerin sayısı arasındaki bir karşılaştırmaya dayandırıyor. Hesaplamalarına göre, 2018'de transistörler kader geçişini yapacak ve rakamlar farklılaşmaya başlayacak. Nispeten kısa bir süre içinde, bireysel mikroişlemciler yaklaşık 10.000 olarak tahmin edilen bir IQ elde edecekler, öte yandan insanlık tarihindeki en parlak beyinler neredeyse 200'e ulaşamayacaklar. Bu nedenle, Son'un "Süper zeka" olarak tanımladığı şeye karşı kendimizi ölçmek zorunda kalacağız. “Yani, ne kadar zeki olursa olsun, insanların hayal gücünün ötesinde bir zeka. Bununla birlikte, otuz yıl içinde tüm bunların gerçek olacağına ikna oldum». Dolayısıyla tekilliğin gelişi için de bir tarihimiz var: 2047.

Bu nedenle yakın mıyız ve kaderimizde boyun eğmek mi var? Son, insan ve makinelerin bir arada var olabileceği ve işbirliği yapabileceği bir gelecekte iyimser ve kendinden emin olduğunu söylüyor. "Bu süper zekanın ortağımız olacağına inanıyorum. Suistimal edersek risk oluşturur. Eğer onu dürüst niyetlere [iyi ruhlara] uyarak kullanırsak, daha iyi bir yaşamda yol arkadaşımız olacaktır».

Yapay zekanın nasıl benimsendiğine çok dikkat etmemiz gerektiğini düşünüyorum... Bu nedenle, yapay zekayı yakından izleyen ve insanlar için tehlike oluşturmadığından emin olan bir hükümete ihtiyacımızın kamu güvenliği açısından önemli olduğunu düşünüyorum.

Tekillik, insan için çok ciddi bir tehdittir.

Google kısa bir süre önce DeepMind tarafından geliştirilen ve AlphaGo ile üstesinden gelebildiğini kanıtlayan, oyun üstüne oyun öğrenen (derin öğrenme), önce Avrupa Go şampiyonu ve son olarak da dünya birincisi olan yapay zeka üzerinde yaptığı bir araştırmanın sonuçlarını açıkladı. Bunlar ön sonuçlar olmasına ve henüz kesin bir çalışma yayınlanmamış olmasına rağmen, kanıtlar gelişmiş yapay zekanın faaliyet gösterdiği ortama uyum sağlayabileceğini ve ondan öğrenebileceğini gösteriyor. Ayrıca köşeye sıkıştığında ve boyun eğme tehlikesiyle karşı karşıya kaldığında onu kazanabilmek için "aşırı agresif" olarak tanımlanan stratejileri kullanmayı seçer. "Araştırmacılar, ajan ne kadar zekiyse, çevresinden öğrenme konusunda o kadar yetenekli olduğunu ve böylece zirveye çıkmak için son derece agresif bazı taktikler kullanabildiğini öne sürüyorlar."

Birkaç yetkili ses, özellikle gelişmiş bir yapay zekanın çok somut bir tehdit oluşturabileceğine dair korkularını dile getirdi. Bunlar arasında, türün devamlılığının bile risk altında olabileceğine inanan Stephen Hawking'inki var: "Yapay zekanın tam olarak gelişmesi, insan ırkının sonu anlamına gelebilir".

Hawking, Musk ve diğer önemli şahsiyetler, örneğin. Steve Wozniak ve Noam Chomsky, otonom silah sistemlerinin geliştirilmesinin doğasında var olan riskler konusunda uyarıda bulunan ve BM tarafından bunların yasaklanmasını isteyen açık bir mektup imzaladılar. «Yapay zeka teknolojisi, otonom silahların geliştirilmesinin - yasal değilse de fiilen - on yıllar değil, yıllar meselesi olduğu bir düzeye ulaştı. Ve riskler yüksek: otonom silahlar, silahlanmada barut ve nükleer silahlardan sonra üçüncü devrim olarak tanımlanıyor.

DeepMind tarafından geliştirilen gelişmiş yapay zeka, yalnızca galip gelmek için nasıl agresif olunacağını bildiğini değil, aynı zamanda yararlı ve gerekli olduğu kanıtlanırsa diğer yapay zekalarla işbirliği stratejilerini tanıyıp uygulayacağını da gösterdi. "... mesaj açık, farklı yapay zeka sistemlerini gerçek hayattaki durumlarda çatışan çıkarlara karşı karşıya getiriyoruz ve hedefleri, biz insanların her şeyden çok faydalanma nihai hedefiyle dengelenmezse, topyekun bir savaş başlayabilir". Birbirine bağlı sayısız ağdan oluşan bir yapay zeka tarafından belirlenen muazzam karmaşıklık, kendi içinde, insanın onu yönetme yeteneğinin çok ötesinde olduğunu kanıtlayabilecek bir meydan okuma oluşturuyor.

AI'nın yan etkileri

Bununla birlikte, bir Süper Zekâ savaş alanında ölümcül olduğunu kanıtlamadan veya hatta Terminatör'deki Skynet süper bilgisayarı gibi insanlığa karşı dönmeye karar vermeden önce bile, başka başka tehlikeler de mevcuttur. Bir süre önce Musk, durumlarda ve dilerseniz çok daha önemsiz nedenlerle ortaya çıkabilecek ölümcül veya her halükarda nahoş olası yan etkiler konusunda uyarıda bulunmuştu. Bu nedenle akıllı cihazlarımızı programlarken son derece dikkatli ve dikkatli olmalıyız. Kötü programlanmış yapay zeka, diyor Musk abartarak, "tüm mutsuz insanların ortadan kaldırılması gerektiği sonucuna varabilir. ...Ya da mutluluğu en üst düzeye çıkarmak için doğrudan beyne enjekte edilen dopamin ve serotonin ile yakalanıp tedavi edilmemiz gerektiğini, çünkü mutluluğu tetikleyen şeyin dopamin ve serotonin olduğu, dolayısıyla mutluluğu en üst düzeye çıkardığı sonucuna vardı. Bir kez daha, akıllı sistemlerin karmaşıklığı arttıkça ve sonrakinin bağlanma ve ağ oluşturma yeteneği arttıkça, işlerinin etkilerini yönetme ve tahmin etme zorluğu da artar.

Yakın zamanda büyük bir grup bilim adamı, araştırmacı ve girişimci (şu anda 3441), 2017 Asilomar konferansı vesilesiyle Life of Life Enstitüsü'nün hazırladığı bir açık mektubu imzaladı. yapay zeka alanındaki araştırmaları bilgilendirmeleri gereken etik olanlar. Asilomar Yapay Zeka İlkeleri, yirmi üç noktada "araştırma stratejilerinden veri korumaya ve olası bir süper zeka da dahil olmak üzere gelecekteki sorunlara kadar uzanır". Amaç, bir kez daha, AI'nın ilerlemesini ortak çıkarlara yönlendirmeye çalışmak ve tüm insanlık için faydalı bir gelecek sağlamaktır. "Ben bir savaş savunucusu değilim ve bunun son derece tehlikeli olabileceğini düşünüyorum... Teknolojinin muazzam bir potansiyele sahip olduğuna açıkça inanıyorum ve bugün sahip olduğumuz yeteneklerle bile, özellikle zararlı amaçlarla nasıl kullanılabileceğini hayal etmek zor değil. Belgenin imzacılarından biri olan Stanford Üniversitesi Bilgisayar Bilimleri Bölümü'nden Stefano Ermon şunları söyledi:

Asilomar Yapay Zeka İlkelerinin de imzacısı olan Stephen Hawking, geçen Aralık ayında "The Guardian"da çıkan anlaşılır ve samimi bir makalenin yazarıydı ve şu önemli başlığı taşıyordu: Bu, gezegenimiz için en tehlikeli çağ. Tanınmış astrofizikçi, insanlığın muazzam sosyal ve ekonomik değişimlerle nasıl mücadele etmek zorunda kalacağının altını çiziyor. Küreselleşmenin yarattığı etkiler, eşitsizliklerdeki artış ve zenginlik ve kaynakların birkaç kişinin elinde yoğunlaşması, buna “…teknolojik dönüşümün hızlanması” eklenecektir. Bu da yetmezmiş gibi, "Şok edici çevresel sorunlarla karşı karşıyayız: iklim değişikliği, gıda üretimi, aşırı nüfus, diğer türlerin yok olması, salgın hastalıklar, okyanus asitlenmesi."

Bütün bu deliller hem bir uyarı hem de yaklaşmakta olan bir tehdit oluşturmaktadır. Sonuçlar herkes için açık: «Birlikte, bize insanlığın gelişimi için en tehlikeli anda olduğumuzu hatırlatıyorlar. Şu anda üzerinde yaşadığımız gezegeni yok edecek teknolojiye sahibiz, ancak onu terk etme olasılığını henüz olgunlaştırmadık."

Bu nedenle, diye bitiriyor Hawking, "Bütün bunların benim için gerçekten önemli olan yönü, bugün, tarihimizin herhangi bir döneminde olduğundan daha fazla, türümüzün birlikte çalışmaya ihtiyaç duyması." İşbirliği yapın, bu nedenle işbirliği yapın, geride kalanlara ve hatta geride kalacaklara sahip çıkın, eşitsizlikleri azaltın, bölmek yerine birleşin, paylaşın ve birkaç kişinin çıkarına değil ortak yarar için çalışın. Yapay zekadaki ilerleme bu senaryoda önemli bir rol oynayacaktır. Dengesizlikleri ve eşitsizlikleri şiddetlendirebilecek, bugün bildiğimiz toplumu çökertebilecek veya çatışmaları ve farklılıkları yumuşatmaya yardımcı olabilecektir.

Tarihten öğrenin

Masayoshi Son'un AI'nın geleceği ile ilgili sözleri geri dönüyor: «Eğer onu kötüye kullanırsak, bu bir risk oluşturacaktır. Eğer onu dürüst niyetlere [iyi ruhlara] uyarak kullanırsak, daha iyi bir yaşamda yol arkadaşımız olacaktır». Hawking, her şeye rağmen kendinden emin: «Bunu yapabiliriz, türüm için son derece iyimserim; ancak tüm bunlar, Londra'dan Harvard'a, Cambridge'den Hollywood'a seçkinlerin geçen yılın derslerini öğrenmesini gerektirecek. Her şeyden önce, bir tutam alçakgönüllülüğü öğrenmelerine izin verin». Geçmişe bakarsak, seçkinler ileri görüşlülükte neredeyse hiç parlamadılar ve hatta alçakgönüllülük konusunda daha az parladılar. Bununla birlikte, devam eden dönüşümler ve nihai bir yok oluşun nihai potansiyel riski, statükodan yararlanan birkaç kişinin de çıkarına olan bir yön değişikliğini gerektiriyor. Seçkinlerin bunun farkında olduğuna şüphe yok, ama asıl soru şu: Onlar da yakından farkında ve buna ikna olmuş durumda mı? Ne de olsa tarihten aldığımız ders, bizi tembel kalmamaya ve oyalanmaya teşvik ediyor çünkü Hawking'in kendisinin de acıklı bir şekilde kabul ettiği gibi, "... kabul edelim, bu çoğunlukla aptallık hikayesidir".

Yoruma