saham

Kecerdasan buatan antara perjalanan luar angkasa dan mobil listrik: masa depan yang akan datang

Kemajuan yang dibuat hingga saat ini dalam kecerdasan buatan sangat mengejutkan. Mereka memiliki hasil yang sama dengan kecepatan pencapaiannya – Tapi kita bisa memiliki AI yang jauh, jauh lebih cemerlang daripada orang terpintar di dunia. Tapi mungkin ini akan menjadi situasi yang berbahaya.

Pandangan tentang masa depan

Berbicara di KTT Pemerintah Dunia baru-baru ini yang diadakan di Dubai, untuk mempromosikan mobil listrik perusahaannya, Elon Musk tidak gagal untuk mengatasi masalah yang berbeda, menggambarkan apa yang dia yakini sebagai masalah dan tantangan yang harus dihadapi dan diatasi umat manusia dari sini segera. Jutawan asal Afrika Selatan, seperti biasa, berkisar dari yang tidak diketahui yang berasal dari pengembangan kecerdasan buatan dan kemungkinan dampak sosial, hingga mobilitas, antarplanet dan, mengapa tidak, bahkan perjalanan antarbintang, hingga menguraikan kemungkinan skenario untuk waktu dekat, tanpa ketinggalan, bagaimanapun, beberapa ide juga diproyeksikan ke cakrawala jangka menengah dan panjang.

Dianggap oleh banyak orang sebagai seorang visioner, seorang antisipator tentang apa yang akan menjadi kenyataan di masa depan, seorang pelopor perjalanan ruang angkasa (SpaceX), seorang promotor mobilitas listrik (Tesla), seorang pendukung energi ramah lingkungan baru-baru ini (Solar City), begitu ambisius, sekaya dirinya, Musk mengatakan dia mencari solusi yang dapat bermanfaat bagi umat manusia. Meskipun tidak ada kekurangan pencela dan kehati-hatian adalah suatu keharusan, seseorang tidak dapat menyangkal dia memiliki kecerdasan yang cemerlang dengan pandangan yang terus-menerus melihat ke depan dan, suka atau tidak suka, beberapa peran dalam membayangkan dan membentuk nasib dunia yang akan terjadi. datang.

Oleh karena itu, ada baiknya mendengarkan apa yang dia katakan kepada kita dan kemudian, mungkin, merenungkan dan mempertanyakan topik yang diangkat, yang sama sekali tidak sepele. Di sini saya akan memperdalam beberapa topik yang berkaitan dengan kecerdasan buatan dan saya akan melakukannya mulai dari beberapa kalimat yang diekstrapolasi dari pidato Musk.

Salah satu masalah yang lebih meresahkan adalah kecerdasan buatan… kecerdasan buatan yang dalam, atau yang terkadang disebut sebagai kecerdasan buatan umum, di mana kita mungkin memiliki AI yang jauh lebih pintar daripada manusia terpintar di dunia. Saya pikir ini akan menjadi situasi yang berbahaya.

Kemajuan yang dibuat hingga saat ini dalam kecerdasan buatan sangat mengejutkan. Mereka sebanyak untuk hasil yang dicapai serta untuk kecepatan yang mereka capai. Kiprah yang tampaknya tak terbendung dan sangat cepat, yang semakin berakselerasi daripada melambat. Bahkan cenderung mengikuti tren eksponensial, sesuai dengan hukum Moore yang mengatur dalam kaitannya dengan peningkatan transistor dalam mikroprosesor. Ritme yang sebenarnya menyembunyikan jebakan bagi pikiran kita.

Singularitas menanti kita di tahun 2047, kata Masayoshi Son

Faktanya adalah, jelaskan Erik Brynjolfsson dan Andrew McAfee (The Second Machine Age, 2014), bahwa kemajuan di bidang kecerdasan buatan, meskipun konstan dari sudut pandang matematika, tampaknya tidak teratur di mata kita. Kedua penulis mengilustrasikannya dengan meminjam ungkapan dari Hemingway yang mengacu pada spiral yang membawa manusia menuju kehancuran: «bertahap dan akhirnya tiba-tiba».

Ini berarti bahwa perkembangan eksponensial mencatat pertumbuhan bertahap, awalnya hampir dapat diabaikan, sampai ke titik di mana, tampaknya, percepatan tiba-tiba terjadi dan jumlahnya menjadi tak terukur, bahkan tak terbayangkan dan karena itu tidak dapat dikelola sama sekali.

Dengan kata lain, melanjutkan pada tingkat ini akan ada perbedaan tajam antara daya komputasi efektif dari mesin (menurut beberapa yang mampu berevolusi hingga memungkinkan mereka untuk memperbaiki diri secara mandiri dan mungkin mengembangkan kesadaran diri mereka sendiri) dan kapasitas manusia untuk memahaminya, menampungnya, memprediksinya, dan kemudian mengendalikannya. Momen caesura yang mendalam ini mengambil nama Singularitas. Meskipun singularitas masih merupakan dugaan dan tidak mengumpulkan konsensus bulat, itu menggambarkan sebuah kemungkinan yang tampaknya semakin konkret dan sayangnya dekat.

Masayoshi Son, CEO Softbank Robotics, berbicara di Mobile World Congress baru-baru ini yang diadakan di Barcelona, ​​\uXNUMXb\uXNUMXbmenyatakan bahwa dalam tiga puluh tahun IQ yang terkandung dalam satu mikroprosesor akan jauh lebih tinggi daripada yang paling cerdas di antara kita. “Setiap chip di sepatu kita tiga puluh tahun dari sekarang akan lebih pintar dari otak kita. Kita akan lebih berharga daripada sepatu kita."

Son mendasarkan prediksinya pada perbandingan antara jumlah neuron di otak kita dan jumlah transistor pada sebuah chip. Menurut perhitungannya, pada 2018 transistor akan melakukan penyalipan yang menentukan dan angkanya akan mulai menyimpang. Dalam waktu yang relatif singkat, mikroprosesor individu akan memperoleh IQ yang diperkirakan sekitar 10.000, di sisi lain, pikiran paling cemerlang dalam sejarah umat manusia hampir tidak mencapai 200. Oleh karena itu, kita harus mengukur diri kita sendiri terhadap apa yang didefinisikan Son sebagai "Superintelligence". “Artinya, kecerdasan yang berada di luar imajinasi orang [tidak peduli] seberapa cerdasnya seseorang. Meskipun demikian saya yakin bahwa dalam waktu tiga puluh tahun semua ini akan menjadi kenyataan». Oleh karena itu kami juga memiliki tanggal munculnya singularitas: 2047.

Apakah karena itu kita dekat dan ditakdirkan untuk menyerah? Son berkata bahwa dia optimis dan yakin akan masa depan di mana manusia dan mesin dapat hidup berdampingan dan berkolaborasi. “Saya percaya superintelijen ini akan menjadi mitra kita. Jika kita menyalahgunakannya, itu akan menimbulkan risiko. Jika kita menggunakannya mengikuti niat jujur ​​[semangat baik] itu akan menjadi pendamping kita dalam kehidupan yang lebih baik».

Saya pikir kita perlu memperhatikan dengan seksama bagaimana kecerdasan buatan diadopsi … Oleh karena itu menurut saya penting untuk keselamatan publik bahwa kita membutuhkan pemerintah yang memantau kecerdasan buatan dengan cermat dan memastikan bahwa itu tidak membahayakan masyarakat.

Singularitas adalah ancaman yang sangat serius bagi manusia

Google baru-baru ini mengumumkan hasil penelitian yang dilakukan terhadap AI yang dikembangkan oleh DeepMind miliknya, yang terbukti mampu mengatasi dengan AlphaGo, belajar game demi game (deep learning), pertama juara European Go dan terakhir juara dunia. Meskipun ini adalah hasil awal dan belum ada studi definitif yang dipublikasikan, bukti menunjukkan bahwa AI tingkat lanjut akan mampu beradaptasi dan belajar dari lingkungan tempatnya beroperasi. Lebih jauh lagi, ketika terpojok dan berisiko mengalah, ia memilih untuk menggunakan strategi yang didefinisikan sebagai "sangat agresif" untuk dapat memenangkannya. "Para peneliti menyarankan bahwa semakin cerdas seorang agen, semakin mampu dia belajar dari lingkungannya, sehingga mampu menggunakan beberapa taktik yang sangat agresif untuk menjadi yang teratas."

Beberapa suara otoritatif telah mengungkapkan ketakutan mereka bahwa AI yang sangat canggih dapat menimbulkan ancaman yang sangat nyata. Di antaranya adalah Stephen Hawking, yang percaya bahwa kesinambungan spesies pun dapat terancam: "Pengembangan kecerdasan buatan penuh dapat berarti akhir dari umat manusia".

Hawking, Musk dan tokoh penting lainnya, seperti misalnya. Steve Wozniak dan Noam Chomsky, telah menandatangani surat terbuka, memperingatkan tentang risiko yang melekat dalam pengembangan sistem senjata otonom dan meminta pelarangan mereka oleh PBB. «Teknologi kecerdasan buatan telah mencapai tingkat di mana pengembangan senjata otonom - secara de facto jika tidak legal - dalam hitungan tahun, bukan dekade. Dan taruhannya tinggi: senjata otonom digambarkan sebagai revolusi ketiga dalam persenjataan, setelah bubuk mesiu dan senjata nuklir.

Kecanggihan AI yang dikembangkan oleh DeepMind telah menunjukkan tidak hanya bahwa ia tahu bagaimana menjadi agresif untuk menang, tetapi juga mengenali dan menerapkan, jika terbukti berguna dan perlu, strategi kooperatif dengan kecerdasan buatan lainnya. «… pesannya jelas, kami mengadu sistem AI yang berbeda dengan kepentingan yang bersaing dalam situasi kehidupan nyata, dan perang habis-habisan dapat terjadi jika tujuan mereka tidak seimbang dengan tujuan akhir untuk memberi manfaat di atas segalanya bagi kita umat manusia". Kompleksitas luar biasa yang ditentukan oleh kecerdasan buatan yang terdiri dari jaringan-jaringan yang saling berhubungan yang tak terhitung jumlahnya, dengan sendirinya, merupakan tantangan yang terbukti jauh di luar kemampuan manusia untuk mengaturnya.

Efek samping AI

Namun, bahkan sebelum Superintelligence terbukti mematikan di medan perang atau bahkan memutuskan untuk berbalik melawan umat manusia, seperti superkomputer Skynet di The Terminator, ada bahaya lain yang lebih jauh. Beberapa waktu lalu Musk telah memperingatkan kemungkinan efek samping, fatal atau tidak menyenangkan yang dapat muncul dalam situasi dan karena alasan, jika Anda suka, jauh lebih sepele. Oleh karena itu, kita harus sangat berhati-hati dan berhati-hati saat memprogram perangkat pintar kita. AI yang diprogram dengan buruk, kata Musk dengan hiperbola, “dapat menyimpulkan bahwa semua manusia yang tidak bahagia harus dihilangkan. … Atau bahwa kita semua harus ditangkap dan diobati dengan dopamin dan serotonin yang disuntikkan langsung ke otak untuk memaksimalkan kebahagiaan, karena dia sampai pada kesimpulan bahwa dopamin dan serotoninlah yang menginduksi kebahagiaan, sehingga meningkatkannya hingga tingkat tertinggi.” Sekali lagi, semakin kompleks sistem cerdas tumbuh dan kemampuan yang terakhir untuk terhubung dan jaringan meningkat, semakin besar kesulitan mengelola dan memprediksi efek pekerjaan mereka.

Baru-baru ini sekelompok besar ilmuwan, peneliti, dan pengusaha (saat ini 3441), menandatangani surat terbuka yang dibuat pada kesempatan konferensi Asilomar 2017, dari Future of Life Institute, dengan tujuan menunjukkan seperangkat pedoman, termasuk yang etis, yang harus mereka informasikan pada penelitian di bidang kecerdasan buatan. Prinsip AI Asilomar, dalam dua puluh tiga poin, "berkisar dari strategi penelitian hingga perlindungan data, hingga masalah di masa depan, termasuk kemungkinan kecerdasan super". Tujuannya, sekali lagi, adalah mencoba mengarahkan kemajuan AI menuju kepentingan bersama dan memastikan masa depan yang bermanfaat bagi seluruh umat manusia. “Saya bukan pendukung perang, dan saya pikir itu bisa sangat berbahaya… Saya jelas percaya bahwa teknologi memiliki potensi yang sangat besar, dan bahkan hanya dengan kemampuan yang kita miliki saat ini, tidak sulit untuk membayangkan bagaimana itu dapat digunakan dalam situasi yang sangat berbahaya. cara.” kata Stefano Ermon, dari Departemen Ilmu Komputer di Stanford University, salah satu penandatangan dokumen tersebut.

Stephen Hawking, juga penandatangan Asilomar AI Principles, adalah penulis artikel yang jelas dan menyentuh hati yang muncul Desember lalu di “The Guardian”, dengan judul penting: Ini adalah era paling berbahaya bagi planet kita. Ahli astrofisika terkenal menggarisbawahi bagaimana umat manusia harus menghadapi perubahan sosial dan ekonomi yang sangat besar. Efek yang ditimbulkan oleh globalisasi, peningkatan ketidaksetaraan dan konsentrasi kekayaan dan sumber daya di tangan segelintir orang, akan ditambahkan «… percepatan transformasi teknologi». Seakan itu belum cukup, "Kita menghadapi tantangan lingkungan yang mengejutkan: perubahan iklim, produksi pangan, kelebihan populasi, penipisan spesies lain, epidemi, pengasaman laut."

Semua bukti ini merupakan peringatan dan ancaman yang akan datang. Konsekuensinya jelas bagi semua: «Bersama-sama, mereka mengingatkan kita bahwa kita berada di saat paling berbahaya bagi perkembangan umat manusia. Kami saat ini memiliki teknologi untuk menghancurkan planet tempat kami tinggal, tetapi kami belum matang untuk meninggalkannya."

Oleh karena itu, simpul Hawking, "Bagi saya, aspek yang benar-benar relevan dari semua ini adalah bahwa hari ini, lebih dari waktu mana pun dalam sejarah kita, spesies kita perlu bekerja sama". Bekerja sama, oleh karena itu, berkolaborasi, merawat mereka yang tersisa dan, terlebih lagi, yang akan tertinggal, mengurangi ketidaksetaraan, bersatu daripada memecah belah, berbagi dan bekerja untuk kebaikan bersama, bukan untuk kepentingan segelintir orang. Kemajuan dalam kecerdasan buatan akan memainkan peran utama dalam skenario ini. Itu akan dapat memperburuk ketidakseimbangan dan ketidaksetaraan, meledakkan masyarakat seperti yang kita kenal sekarang, atau membantu meredakan konflik dan perbedaan.

Belajarlah dari sejarah

Kata-kata Masayoshi Son terkait dengan masa depan AI: «Jika kita menyalahgunakannya, itu akan menjadi risiko. Jika kita menggunakannya mengikuti niat jujur ​​[semangat baik] itu akan menjadi pendamping kita dalam kehidupan yang lebih baik». Hawking, terlepas dari segalanya, yakin: «Kita bisa melakukannya, saya sangat optimis untuk spesies saya; tetapi semua ini akan membutuhkan para elit, dari London hingga Harvard, Cambridge hingga Hollywood, untuk mempelajari pelajaran dari tahun lalu. Pertama-tama, biarkan mereka belajar sedikit tentang kerendahan hati». Jika kita melihat kembali ke masa lalu, para elit hampir tidak pernah bersinar untuk pandangan jauh ke depan dan bahkan lebih sedikit untuk kerendahan hati. Namun, transformasi yang sedang berlangsung dan potensi risiko akhir dari kepunahan akhirnya memerlukan perubahan arah yang juga merupakan kepentingan segelintir orang yang mendapat manfaat dari status quo. Tidak ada keraguan bahwa para elit menyadarinya, tetapi pertanyaan sebenarnya adalah: apakah mereka juga sadar dan yakin akan hal itu? Lagi pula, pelajaran yang datang kepada kita dari sejarah mendesak kita untuk tidak bermalas-malasan dan berlama-lama karena, seperti yang diakui Hawking sendiri dengan sedih, «… hadapi saja, ini sebagian besar adalah kisah kebodohan».

Tinjau