Dari Fiksi Ilmiah Menjadi Kenyataan: Bahaya Nyata dari Kecerdasan Buatan
Munculnya kecerdasan buatan mewakili terobosan teknologi signifikan yang siap merevolusi masyarakat seperti halnya Internet, komputer pribadi, dan telepon seluler. Dampaknya sangat luas, menyusup ke berbagai aspek kehidupan manusia mulai dari pekerjaan, pendidikan, hingga aktivitas rekreasi. Pesatnya kemajuan jaringan saraf menimbulkan kekhawatiran, mendorong kita untuk mengeksplorasi potensi bahaya yang mungkin ditimbulkan oleh kecerdasan buatan terhadap umat manusia dalam artikel ini.
Apakah KB berbahaya? Siapa yang menyuarakan keprihatinan?
Dalam film fiksi ilmiah, gagasan tentang kecerdasan buatan tak terkendali yang bertekad mendominasi atau menghancurkan umat manusia adalah tema yang populer, seperti yang terlihat dalam film seperti "The Matrix" dan "The Terminator". Dengan pesatnya kemajuan teknologi saat ini, dapat menjadi tantangan bagi kebanyakan orang untuk mengikutinya. Kemajuan pesat KB menyebabkan masyarakat kita beradaptasi dengan cepat, sehingga memicu ketakutan akibat kompleksitas teknologi ini dan ketakutan bawaan manusia terhadap hal-hal yang tidak diketahui.
Tidak hanya masyarakat awam yang merasa cemas terhadap KB, namun para ahli di bidangnya juga mengungkapkan kekhawatiran mereka. Misalnya, Geoffrey Hinton, yang sering disebut sebagai "bapak baptis KB", telah menyuarakan kekhawatirannya sendiri:
Hal-hal ini bisa menjadi lebih cerdas daripada kita dan bisa mengambil alih, dan sekarang kita perlu khawatir tentang bagaimana kita mencegah hal itu terjadi.
Saya sudah lama berpikir bahwa kita masih 30 hingga 50 tahun lagi dari hal itu. Jadi saya menyebutnya jauh dari sesuatu yang memiliki kecerdasan umum lebih tinggi daripada manusia. Sekarang, saya pikir kita mungkin sudah semakin dekat, mungkin hanya lima tahun lagi dari itu.
Ada bahaya serius bahwa kita akan menjadi lebih pintar dalam waktu dekat dan bahwa hal-hal ini mungkin mempunyai motif buruk dan mengambil kendali.
Pada tanggal 22 Maret 2023, sebuah surat terbuka diterbitkan yang menyerukan penghentian pengembangan kecerdasan buatan yang lebih canggih dari GPT-4 untuk jangka waktu enam bulan:
Sistem KB masa kini kini semakin kompetitif dengan manusia dalam tugas-tugas umum, dan kita harus bertanya pada diri sendiri: Haruskah kita membiarkan mesin membanjiri saluran informasi kita dengan propaganda dan ketidakbenaran? Haruskah kita mengotomatiskan semua pekerjaan, termasuk pekerjaan yang memenuhi kebutuhan? Haruskah kita mengembangkan pikiran-pikiran yang bukan manusia yang mungkin pada akhirnya akan melebihi jumlah kita, mengakalinya, menjadi ketinggalan jaman, dan menggantikan kita? Haruskah kita mengambil risiko kehilangan kendali atas peradaban kita? Keputusan seperti itu tidak boleh didelegasikan kepada para pemimpin teknologi yang tidak melalui proses pemilihan. Sistem KB yang kuat harus dikembangkan hanya ketika kita yakin bahwa dampaknya akan positif dan risikonya dapat dikelola. Keyakinan ini harus dapat dibenarkan dan meningkat seiring dengan besarnya dampak potensial suatu sistem.
Surat tersebut ditandatangani oleh 1800 pemimpin perusahaan teknologi, 1500 profesor, cendekiawan, dan peneliti di bidang KB:
- Elon Musk, CEO SpaceX, Tesla & Twitter
- Steve Wozniak, salah satu pendiri Apple
- Emad Mostaque, CEO, Stability AI
- Jaan Tallinn, Salah Satu Pendiri Skype, Pusat Studi Risiko Eksistensial, Future of Life Institute
- Evan Sharp, Salah Satu Pendiri, Pinterest
- Craig Peters, CEO, Getty Images
- Mark Nitzberg, Pusat Kecerdasan Buatan yang Sesuai dengan Manusia, UC Berkeley, Direktur Eksekutif
- Gary Marcus, Universitas New York, peneliti AI, Profesor Emeritus
- Zachary Kenton, DeepMind, Ilmuwan Riset Senior
- Ramana Kumar, DeepMind, Ilmuwan Riset
- Michael Osborne, Universitas Oxford, Profesor Pembelajaran Mesin
- Adam Smith, Universitas Boston, Profesor Ilmu Komputer, Gödel Prize, Kanellakis Prize
Secara keseluruhan, lebih dari 33.000 tanda tangan terkumpul.
Tokoh-tokoh penting lainnya, seperti Sam Altman (CEO, OpenAI), Geoffrey Hinton (Pemenang Turing Award), Dario Amodei (CEO, Anthropic), dan Bill Gates, serta lebih dari 350 eksekutif dan peneliti AI menandatangani pernyataan berikut:
Mengurangi risiko kepunahan akibat KB harus menjadi prioritas global, di samping risiko-risiko berskala masyarakat lainnya, seperti pandemi dan perang nuklir.
Bahaya Kecerdasan Buatan
Pada tahun 2018, sebuah mobil Uber tanpa pengemudi menabrak dan menewaskan seorang pejalan kaki.
Pada tahun 2022, para ilmuwan mengonfigurasi ulang sistem KB yang awalnya dirancang untuk menciptakan molekul penyembuh yang tidak beracun untuk menghasilkan agen perang kimia. Dengan mengubah pengaturan sistem untuk memberi penghargaan pada toksisitas alih-alih menghukumnya, mereka dapat dengan cepat menghasilkan 40.000 molekul potensial untuk perang kimia hanya dalam waktu enam jam.
Pada tahun 2023, para peneliti mendemonstrasikan bagaimana GPT-4 dapat memanipulasi pekerja TaskRabbit untuk menyelesaikan verifikasi Captcha. Baru-baru ini, sebuah insiden tragis dilaporkan di mana seseorang bunuh diri setelah melakukan percakapan yang mengganggu dengan chatbot.
Penggunaan sistem KB, apa pun tujuan yang dimaksudkan, dapat menimbulkan konsekuensi negatif, seperti:
- Kehilangan pekerjaan yang dipicu oleh otomatisasi
- Deepfakes dan kesalahan informasi
- Pelanggaran privasi
- Peraturan hukum yang tidak jelas
- Bias algoritmik yang disebabkan oleh data yang buruk
- Krisis keuangan
- Kejahatan dunia maya
- Otomatisasi senjata
- Kecerdasan super yang tidak terkendali
Sistem kecerdasan buatan menjadi semakin kuat, dan kita tidak tahu batasannya. Sistem ini dapat digunakan untuk tujuan jahat. Mari kita periksa berbagai risiko lebih dekat.
Kehilangan Pekerjaan Karena Otomatisasi oleh KB
Menurut penelitian yang dilakukan oleh Goldman Sachs, kecerdasan buatan dapat berdampak secara signifikan terhadap pasar tenaga kerja di seluruh dunia. Dengan menganalisis basis data yang merinci konten tugas lebih dari 900 pekerjaan di AS dan 2000 pekerjaan di basis data ESCO Eropa, para ekonom Goldman Sachs memperkirakan bahwa sekitar dua pertiga pekerjaan terpapar pada tingkat otomatisasi tertentu oleh KB.
Sumbu vertikal menunjukkan Persentase beban kerja yang terpapar otomatisasi oleh KB. Sumbu horizontal menunjukkan Persentase pekerjaan.
Perubahan alur kerja yang disebabkan oleh kemajuan ini berpotensi mengotomatisasi setara dengan 300 juta pekerjaan penuh waktu. Namun, tidak semua pekerjaan yang diotomatisasi ini akan menyebabkan PHK. Banyak pekerjaan dan industri yang hanya sebagian rentan terhadap otomatisasi, yang berarti mereka lebih mungkin untuk dilengkapi dengan AI daripada digantikan seluruhnya.
Seo.ai mengambil prediksi ini lebih jauh lagi, memperkirakan bahwa sekitar 800 juta pekerjaan di seluruh dunia dapat digantikan oleh kecerdasan buatan pada tahun 2030. Untuk mempersiapkan pergeseran yang akan datang ini, diperkirakan selama tiga tahun ke depan, lebih dari 120 juta pekerja akan menjalani pelatihan ulang.
Jika Anda ingin mengetahui profesi mana yang lebih rentan terhadap otomatisasi dan mana yang tidak terlalu terancam oleh otomatisasi, silakan baca artikel kami tentang topik ini.
Informasi yang salah
Bahkan model bahasa besar yang paling canggih pun rentan menghasilkan informasi yang salah atau tidak masuk akal. Kesalahan (halusinasi) ini sering kali disebabkan oleh ketergantungan model pada pola statistik dalam data yang telah dilatih daripada pemahaman atau penalaran yang benar.
Dengan kata lain, chatbot terkadang dapat mengarang fakta. Hal ini diperjelas pada tahun 2023, ketika seorang pengacara di New York mendapatkan masalah karena menggunakan ChatGPT untuk melakukan penelitian hukum untuk kasus cedera pribadi. Dia menyusun laporan singkat setebal 10 halaman, merujuk pada beberapa keputusan pengadilan sebelumnya, yang semuanya terbukti sepenuhnya dibuat-buat oleh chatbot. Akibatnya, pengacara dan seorang rekannya dijatuhi sanksi oleh hakim federal dan didenda masing-masing sebesar $5.000.
Pada tahun 2024, seorang pengacara New York lainnya didisiplinkan karena mengutip kasus yang tidak ada yang dihasilkan oleh kecerdasan buatan.
Contoh lainnya adalah Stack Overflow, sebuah situs web tanya jawab yang digunakan terutama oleh para programmer dan pengembang untuk mengajukan pertanyaan teknis, mencari bantuan untuk masalah pengkodean, dan berbagi pengetahuan di dalam komunitas pemrograman.
Situs ini harus melarang semua penggunaan AI generatif, karena tingkat rata-rata untuk mendapatkan jawaban yang benar dari berbagai chatbot terlalu rendah meskipun jawabannya biasanya terlihat meyakinkan.
Manipulasi Sosial
Platform media sosial dibanjiri dengan begitu banyak konten akhir-akhir ini, bisa jadi sangat sulit untuk mengikuti semuanya. Di situlah kurasi algoritmik berperan. Pada dasarnya, kurasi algoritmik membantu menyaring semua kebisingan dan menyajikan konten yang paling mungkin menarik bagi pengguna berdasarkan perilaku mereka di masa lalu. Meskipun hal ini dapat membantu dalam mengelola aliran informasi yang tak ada habisnya, ini juga berarti bahwa platform memiliki banyak kendali dalam membentuk apa yang dilihat dan berinteraksi dengan pengguna.
Namun, mengubah apa yang muncul di news feed seseorang dapat memengaruhi suasana hati mereka dan bagaimana mereka memandang dunia secara umum. Pada Januari 2012, para ilmuwan data Facebook mendemonstrasikan bagaimana keputusan tentang kurasi News Feed dapat mengubah tingkat kebahagiaan pengguna. Peristiwa pada Januari 2021 di AS di US Capitol semakin menyoroti bagaimana konsumsi media sosial seseorang dapat berperan dalam radikalisasi.
Selain itu, karena materi yang sensasional cenderung membuat pengguna terpikat untuk waktu yang lebih lama, algoritme dapat secara tidak sengaja mengarahkan pengguna ke konten yang provokatif dan berbahaya untuk meningkatkan keterlibatan. Bahkan menyarankan konten berdasarkan minat pengguna dapat menjadi masalah, karena hal ini dapat semakin mengukuhkan keyakinan mereka dalam "gelembung filter" daripada mengekspos mereka pada perspektif yang beragam. Hal ini pada akhirnya dapat meningkatkan polarisasi di antara para pengguna.
Ketika kita menyerahkan kekuatan pengambilan keputusan kita kepada platform, pada dasarnya kita memberi mereka kendali atas apa yang kita lihat. Media sosial, dengan algoritmanya yang canggih, unggul dalam pemasaran yang ditargetkan dengan memahami preferensi dan pemikiran kita. Investigasi baru-baru ini sedang menyelidiki peran Cambridge Analytica dan perusahaan serupa dalam menggunakan data dari 50 juta pengguna Facebook untuk memengaruhi peristiwa politik besar seperti pemilihan Presiden AS 2016 dan referendum Brexit di Inggris. Jika tuduhan ini terbukti benar, hal ini menyoroti potensi KB untuk memanipulasi masyarakat. Contoh yang lebih baru adalah Ferdinand Marcos, Jr. yang menggunakan pasukan troll TikTok untuk mempengaruhi pemilih yang lebih muda pada pemilihan presiden Filipina tahun 2022. Dengan memanfaatkan data pribadi dan algoritme, KB dapat secara efektif menargetkan individu dengan propaganda tertentu, baik itu berdasarkan fakta atau fiksi.
Deepfakes
Deepfakes mengacu pada video atau gambar yang diubah secara digital yang secara realistis menggambarkan seseorang yang mengatakan atau melakukan sesuatu yang sebenarnya tidak pernah mereka katakan atau lakukan. Teknologi ini menggunakan algoritme pembelajaran mendalam untuk memanipulasi rekaman video dan audio yang ada untuk membuat konten palsu yang meyakinkan.
"Tidak ada yang tahu mana yang nyata dan mana yang tidak," kata futuris Martin Ford. "Jadi, hal ini benar-benar mengarah pada situasi di mana Anda benar-benar tidak dapat mempercayai mata dan telinga Anda sendiri; Anda tidak dapat mengandalkan apa yang secara historis kita anggap sebagai bukti terbaik... Itu akan menjadi masalah besar."
Salah satu alasan utama mengapa deepfake dianggap berbahaya adalah potensinya untuk digunakan untuk tujuan jahat. Misalnya, deepfake dapat digunakan untuk membuat bukti video palsu dalam kasus hukum, menjebak seseorang atas kejahatan yang tidak mereka lakukan, atau bahkan menyamar sebagai tokoh politik untuk menyebarkan informasi palsu. Dengan memanipulasi media dengan cara ini, deepfakes memiliki kekuatan untuk mengganggu kepercayaan terhadap sumber informasi tradisional dan menebarkan kebingungan serta perselisihan di masyarakat.
Menurut DeepMedia, sebuah perusahaan yang membuat alat untuk mendeteksi media sintetis, 500.000 deepfake diposting di situs media sosial secara global pada tahun 2023. Jumlah tersebut 3 kali lebih banyak dari pemalsuan video dan 8 kali lebih banyak dari pemalsuan suara dibandingkan tahun 2022.
Beberapa contoh penggunaan deepfake yang berniat buruk baru-baru ini termasuk pembuatan pornografi selebriti palsu, di mana wajah-wajah selebriti dimasukkan secara digital ke dalam video pornografi tanpa persetujuan mereka. Selain itu, ada beberapa contoh video deepfake yang digunakan untuk memanipulasi harga saham, mencemarkan nama baik seseorang, atau menyebarkan propaganda politik. Contoh-contoh ini menyoroti potensi deepfake digunakan untuk tujuan yang berbahaya dan menipu.
Kejahatan dunia maya
Kejahatan siber mencakup berbagai macam aktivitas kriminal yang menggunakan perangkat dan jaringan digital. Kejahatan ini melibatkan penggunaan teknologi untuk melakukan penipuan, pencurian identitas, pembobolan data, virus komputer, penipuan, dan tindakan jahat lainnya. Penjahat siber mengeksploitasi kelemahan dalam sistem dan jaringan komputer untuk mendapatkan akses yang tidak sah, mencuri informasi sensitif, mengganggu layanan, dan menyebabkan kerugian bagi individu, organisasi, dan pemerintah.
Musuh semakin banyak memanfaatkan alat KB yang tersedia seperti ChatGPT, Dall-E, dan Midjourney untuk serangan phishing otomatis, serangan peniruan, serangan rekayasa sosial, dan chatbot dukungan pelanggan palsu.
Menurut Laporan SlashNext State of Phishing Report 2023, telah terjadi lonjakan 1265% pada email phishing berbahaya, sebagian besar disebabkan oleh penggunaan alat bantu KB untuk serangan yang ditargetkan.
Serangan peniruan menjadi semakin umum. Para penipu menggunakan ChatGPT dan alat lainnya untuk menyamar sebagai individu dan organisasi sungguhan, melakukan pencurian identitas dan penipuan. Mirip dengan serangan phishing, mereka menggunakan chatbot untuk mengirim pesan suara yang menyamar sebagai teman, kolega, atau anggota keluarga tepercaya untuk mendapatkan informasi pribadi atau akses ke akun. Dalam sebuah kasus penting pada bulan Maret 2019, kepala anak perusahaan Inggris dari sebuah perusahaan energi Jerman menjadi korban penipu yang menirukan suara CEO, yang menyebabkan transfer hampir £200.000 ($243.000) ke rekening bank Hungaria. Dana tersebut kemudian dipindahkan ke Meksiko dan disebarkan ke beberapa lokasi. Para penyelidik belum mengidentifikasi tersangka.
Pada tahun 2023, Pusat Pengaduan Kejahatan Internet (IC3) menerima jumlah pengaduan yang belum pernah terjadi sebelumnya dari masyarakat Amerika: total 880.418 pengaduan diajukan, dengan potensi kerugian melebihi $12,5 miliar. Hal ini menandakan peningkatan hampir 10% dalam jumlah pengaduan yang diterima dan peningkatan kerugian sebesar 22% dibandingkan dengan tahun 2022. Terlepas dari angka-angka yang mengejutkan ini, penting untuk dicatat bahwa angka-angka tersebut kemungkinan besar meremehkan tingkat kejahatan dunia maya yang sebenarnya pada tahun 2023. Misalnya, ketika FBI baru-baru ini membongkar kelompok ransomware Hive, ditemukan bahwa hanya sekitar 20% korban Hive yang telah melaporkan kejahatan tersebut kepada penegak hukum.
Pelanggaran Privasi
Contoh utama dari pengawasan sosial adalah penggunaan teknologi pengenal wajah di kantor-kantor, sekolah-sekolah, dan tempat-tempat lain di Cina. Teknologi ini tidak hanya memungkinkan pelacakan pergerakan individu, tetapi juga berpotensi memungkinkan pemerintah untuk mengumpulkan data yang luas untuk memantau tindakan, aktivitas, hubungan, dan keyakinan ideologis mereka.
Individu sekarang dapat dipantau baik secara online maupun dalam kehidupan sehari-hari. Setiap warga negara dievaluasi berdasarkan perilaku mereka, seperti menyeberang jalan, merokok di area bebas rokok, dan waktu yang dihabiskan untuk bermain video game. Bayangkan bahwa setiap tindakan mempengaruhi skor pribadi Anda dalam sistem kredit sosial.
Ketika Big Brother mengawasi Anda dan kemudian membuat keputusan berdasarkan informasi tersebut, ini bukan hanya pelanggaran privasi tetapi juga dapat dengan cepat berubah menjadi penindasan sosial.
Krisis Keuangan
Di dunia keuangan saat ini, penggunaan algoritme pembelajaran mesin tersebar luas, dengan hedge fund dan perusahaan investasi sangat mengandalkan model ini untuk menganalisis saham dan aset. Algoritme ini secara konstan diberi makan dengan sejumlah besar data tradisional dan alternatif untuk membuat keputusan perdagangan. Namun, ada kekhawatiran yang berkembang bahwa perdagangan algoritmik berpotensi memicu krisis keuangan besar berikutnya.
Flash Crash 2010. $600 miliar menguap dalam 20 menit
Salah satu contoh penting dari bahaya algoritme yang salah adalah Flash Crash 2010, di mana pasar saham tiba-tiba anjlok hampir 1.000 poin dalam hitungan menit sebelum dengan cepat pulih kembali. Meskipun indeks pasar berhasil pulih kembali pada hari yang sama, Flash Crash menghapus hampir $1 triliun nilai pasar. Penurunan harga yang tiba-tiba dan drastis ini sebagian besar disebabkan oleh algoritme trading otomatis yang bereaksi terhadap kondisi pasar dengan cara yang tidak dapat diprediksi. Contoh lainnya adalah Flash Crash Knight Capital pada tahun 2012, di mana sebuah algoritme yang tidak berfungsi menyebabkan perusahaan kehilangan $440 juta hanya dalam waktu 45 menit, yang pada akhirnya menyebabkan kehancurannya.
Kecelakaan ini menjadi pengingat akan potensi risiko yang ditimbulkan oleh perdagangan algoritmik di pasar keuangan. Ketika algoritme tidak dirancang, diuji, atau diawasi dengan baik, maka dapat menimbulkan konsekuensi bencana. Sangat penting bagi lembaga keuangan untuk memeriksa algoritme mereka secara menyeluruh dan memastikan praktik manajemen risiko yang tepat tersedia untuk mencegah bencana serupa terjadi di masa depan.
Robot Pembunuh
Senjata otonom yang didukung oleh kecerdasan buatan (KB) telah lama menjadi topik perdebatan dan kekhawatiran di kalangan pemerintah, pejabat militer, dan pembela hak asasi manusia. Sistem ini, yang juga dikenal sebagai "robot pembunuh" atau "senjata otonom yang mematikan", memiliki kemampuan untuk memilih dan menyerang target secara mandiri tanpa campur tangan manusia. Hal ini menimbulkan masalah etika, hukum, dan keamanan yang signifikan, karena senjata-senjata ini memiliki potensi untuk membuat keputusan hidup atau mati tanpa pengawasan manusia.
Pengembangan senjata otonom telah dipercepat dalam beberapa tahun terakhir, karena teknologi KB telah menjadi lebih maju dan meluas. Senjata ini dapat berkisar dari drone tak berawak hingga sistem berbasis darat yang dapat mengidentifikasi dan menyerang target secara mandiri. Para pendukung senjata otonom berpendapat bahwa senjata ini dapat mengurangi korban manusia di zona konflik dan memberikan operasi militer yang lebih tepat dan efisien. Namun, para pengkritik berpendapat bahwa sistem ini menimbulkan pertanyaan etika yang serius dan dapat menimbulkan konsekuensi yang tidak diinginkan, seperti eskalasi konflik dan korban sipil.
Bahaya yang ditimbulkan oleh senjata otonom yang didukung oleh KB sangat nyata. Sistem ini berpotensi diretas atau mengalami kegagalan fungsi, sehingga menimbulkan konsekuensi yang tidak diinginkan dan kehilangan kendali. Selain itu, kurangnya pengawasan manusia dalam pengambilan keputusan menimbulkan kekhawatiran tentang akuntabilitas dan potensi pelanggaran hukum humaniter internasional.
Pada tahun 2020, lebih dari 30 negara menyerukan larangan senjata otonom yang mematikan, mengutip kekhawatiran tentang potensi mesin untuk membuat keputusan hidup atau mati. Terlepas dari kekhawatiran ini, pengembangan dan penyebaran senjata otonom yang didukung oleh KB terus berlanjut. Negara-negara seperti Amerika Serikat, Rusia, Tiongkok, dan Israel diketahui berinvestasi besar-besaran dalam teknologi ini. Di Amerika Serikat, Departemen Pertahanan telah mengembangkan sistem senjata otonom, termasuk drone semi-otonom dan kendaraan darat tak berawak.
Kecerdasan Super yang Tak Terkendali
Kecerdasan buatan melampaui otak manusia dalam berbagai hal, termasuk kecepatan komputasi, kecepatan komunikasi internal, skalabilitas, kapasitas memori, keandalan, kemampuan menduplikasi, kemampuan mengedit, berbagi memori, dan kemampuan belajar:
- KB beroperasi pada potensi beberapa GHz dibandingkan dengan batas 200 Hz neuron biologis.
- Akson mengirimkan sinyal dengan kecepatan 120 m/s, sementara komputer melakukannya dengan kecepatan listrik atau cahaya.
- KB dapat dengan mudah berkembang dengan menambahkan lebih banyak perangkat keras, tidak seperti kecerdasan manusia yang dibatasi oleh ukuran otak dan efisiensi komunikasi sosial.
- Memori kerja pada manusia terbatas dibandingkan dengan kapasitas memori KB yang sangat luas.
- Keandalan transistor dalam KB melampaui neuron biologis, sehingga memungkinkan presisi yang lebih tinggi dan lebih sedikit redundansi.
- Model KB dapat dengan mudah diduplikasi, dimodifikasi, dan dapat belajar dari pengalaman KB lain secara lebih efisien daripada manusia.
Suatu hari nanti, KB dapat mencapai tingkat kecerdasan yang jauh melampaui manusia, yang mengarah pada apa yang dikenal sebagai ledakan kecerdasan.
Gagasan peningkatan diri secara rekursif, di mana AI terus meningkatkan dirinya sendiri dengan kecepatan eksponensial, telah memicu kekhawatiran tentang potensi konsekuensi dari penciptaan entitas super cerdas. Bayangkan sebuah skenario di mana KB mencapai tingkat kecerdasan yang memungkinkannya untuk berpikir lebih jauh dan mengungguli manusia dalam segala hal. Kecerdasan super ini berpotensi memiliki kekuatan untuk membuat keputusan yang sangat memengaruhi masyarakat dan cara hidup kita. Sama seperti manusia yang saat ini memegang nasib banyak spesies di tangan kita, nasib umat manusia suatu hari nanti mungkin akan berada di tangan KB yang sangat cerdas.
Ketergantungan Berlebihan pada KB dan Tanggung Jawab Hukum
Terlalu bergantung pada teknologi KB dapat menyebabkan penurunan pengaruh dan fungsi manusia di bidang-bidang tertentu dalam masyarakat. Misalnya, penggunaan KB dalam bidang kesehatan dapat menyebabkan penurunan empati dan penalaran manusia. Selain itu, penggunaan KB generatif untuk kegiatan kreatif dapat menghambat kreativitas dan ekspresi emosional manusia. Interaksi yang berlebihan dengan sistem KB juga dapat menyebabkan penurunan komunikasi antarsesama dan keterampilan sosial. Meskipun KB dapat bermanfaat untuk mengotomatisasi tugas-tugas, ada kekhawatiran tentang dampaknya terhadap kecerdasan, kemampuan, dan rasa kebersamaan manusia secara keseluruhan.
Selain itu, ada potensi bahaya yang dapat mengakibatkan kerusakan fisik pada manusia. Misalnya, jika perusahaan hanya mengandalkan prediksi KB untuk jadwal pemeliharaan tanpa verifikasi lainnya, hal ini dapat mengakibatkan kerusakan mesin yang membahayakan pekerja. Dalam bidang kesehatan, model KB dapat menyebabkan kesalahan diagnosis.
Selain bahaya fisik, ada beberapa cara non-fisik di mana KB dapat menimbulkan risiko bagi manusia jika tidak diatur dengan benar. Hal ini mencakup masalah keamanan digital seperti pencemaran nama baik atau fitnah, keamanan finansial seperti penyalahgunaan KB dalam rekomendasi keuangan atau pemeriksaan kredit, dan masalah kesetaraan yang berkaitan dengan bias dalam KB yang menyebabkan penolakan atau penerimaan yang tidak adil dalam berbagai program.
Dan, ketika terjadi kesalahan, siapa yang harus bertanggung jawab? Apakah KB itu sendiri, pengembang yang menciptakannya, perusahaan yang menggunakannya, atau operatornya jika ada manusia yang terlibat?
* * *
Kesimpulannya, meskipun kecerdasan buatan memiliki banyak risiko dan ancaman, ia juga memiliki potensi untuk memberikan manfaat besar bagi masyarakat dan meningkatkan taraf hidup kita. Penting untuk diketahui bahwa hal baik sering kali lebih besar daripada hal buruk dalam hal teknologi KB. Dalam artikel kami berikutnya, kami akan membahas strategi untuk memitigasi risiko yang terkait dengan KB, untuk memastikan bahwa kita dapat sepenuhnya memanfaatkan potensinya untuk perubahan positif.