Bilim Kurgudan Gerçeğe: Yapay Zekanın Gerçek Tehlikeleri
Yapay zekanın yükselişi, tıpkı internet, kişisel bilgisayarlar ve cep telefonlarının yaptığı gibi toplumda devrim yaratmaya aday önemli bir teknolojik atılımı temsil ediyor. Etkisi, iş ve eğitimden boş zaman aktivitelerine kadar insan hayatının çeşitli yönlerine sızarak yaygınlaşıyor. Sinir ağlarının hızla ilerlemesi bazı endişelere yol açıyor ve bizi bu makalede yapay zekanın insanlık için oluşturabileceği potansiyel tehlikeleri keşfetmeye sevk ediyor.
Yapay zeka tehlikeli mi? Endişeleri kim dile getirdi?
"Matrix" ve "Terminatör" gibi filmlerde görüldüğü gibi, bilim kurgu filmlerinde, insanlığa hükmetmeye veya onu yok etmeye kararlı, kontrol edilemeyen bir yapay zeka fikri popüler bir temadır. Günümüzde teknolojik ilerlemenin hızlı temposu nedeniyle, ortalama bir insanın buna ayak uydurması zor olabilir. Yapay zekanın hızlı ilerleyişi, toplumlarımızın hızla adapte olmasına neden olurken, bu teknolojilerin karmaşıklığı ve insanların bilinmeyene karşı doğuştan gelen korkusu nedeniyle korkulara yol açıyor.
Sadece sıradan bireyler YZ konusunda endişeli hissetmekle kalmıyor, aynı zamanda bu alandaki uzmanlar da endişelerini dile getiriyor. Örneğin, sıklıkla "YZ'nin vaftiz babası" olarak anılan Geoffrey Hinton, kendi endişelerini dile getirmiştir:
Bu şeyler bizden daha zeki olabilirler ve yönetimi ele geçirmeye karar verebilirler ve şimdi bunun olmasını nasıl engelleyeceğimiz konusunda endişelenmemiz gerekiyor.
Uzun zamandır bundan 30 ila 50 yıl uzakta olduğumuzu düşünüyordum. Yani bir insandan daha fazla genel zekaya sahip bir şeyden bu kadar uzağız. Şimdi ise buna çok daha yakın, belki de sadece beş yıl uzakta olduğumuzu düşünüyorum.
Çok yakında bizden daha zeki şeylere sahip olmamız ve bu şeylerin kötü amaçlar edinip kontrolü ele geçirmesi gibi ciddi bir tehlike var.
22 Mart 2023 tarihinde, altı aylık bir süre için GPT-4'ten daha güçlü yapay zeka geliştirilmesinin durdurulması çağrısında bulunan bir açık mektup yayınlandı:
Çağdaş yapay zeka sistemleri artık genel görevlerde insanlarla rekabet edebilir hale geliyor ve kendimize şu soruyu sormalıyız: Makinelerin bilgi kanallarımızı propaganda ve gerçek dışı haberlerle doldurmasına izin vermeli miyiz? Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz? Eninde sonunda sayıca üstün, akıllı, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler mi geliştirmeliyiz? Uygarlığımızın kontrolünü kaybetme riskini göze almalı mıyız? Bu tür kararlar seçilmemiş teknoloji liderlerine devredilmemelidir. Güçlü YZ sistemleri ancak etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir. Bu güven iyi gerekçelendirilmeli ve bir sistemin potansiyel etkilerinin büyüklüğü ile artmalıdır.
Mektup 1800 teknoloji şirketi lideri, 1500 profesör, akademisyen ve yapay zeka alanındaki araştırmacılar tarafından imzalandı:
- Elon Musk, SpaceX, Tesla ve Twitter CEO'su
- Steve Wozniak, Kurucu Ortak, Apple
- Emad Mostaque, CEO, Stability AI
- Jaan Tallinn, Skype Kurucu Ortağı, Varoluşsal Risk Çalışmaları Merkezi, Yaşamın Geleceği Enstitüsü
- Evan Sharp, Kurucu Ortak, Pinterest
- Craig Peters, CEO, Getty Images
- Mark Nitzberg, İnsan Uyumlu Yapay Zeka Merkezi, UC Berkeley, İcra Direktörü
- Gary Marcus, New York Üniversitesi, Yapay Zeka Araştırmacısı, Emeritus Profesör
- Zachary Kenton, DeepMind, Kıdemli Araştırma Bilimcisi
- Ramana Kumar, DeepMind, Araştırmacı Bilim İnsanı
- Michael Osborne, Oxford Üniversitesi, Makine Öğrenimi Profesörü
- Adam Smith, Boston Üniversitesi, Bilgisayar Bilimleri Profesörü, Gödel Ödülü, Kanellakis Ödülü
Toplamda 33.000'den fazla imza toplanmıştır.
Sam Altman (CEO, OpenAI), Geoffrey Hinton (Turing Ödülü Sahibi), Dario Amodei (CEO, Anthropic) ve Bill Gates gibi diğer önemli isimlerin yanı sıra 350'den fazla yönetici ve YZ araştırmacısı aşağıdaki bildiriyi imzaladı:
Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır.
Yapay Zekanın Tehlikeleri
2018'de sürücüsüz bir Uber aracı bir yayaya çarparak ölümüne neden oldu.
2022'de bilim insanları, başlangıçta toksik olmayan, iyileştirici moleküller oluşturmak için tasarlanmış bir yapay zeka sistemini kimyasal savaş ajanları üretmek üzere yeniden yapılandırdı. Sistemin ayarlarını toksisiteyi cezalandırmak yerine ödüllendirecek şekilde değiştirerek, sadece altı saat içinde kimyasal savaş için 40.000 potansiyel molekülü hızlı bir şekilde üretmeyi başardılar.
2023 yılında araştırmacılar GPT-4'ün bir TaskRabbit çalışanını Captcha doğrulamasını tamamlaması için nasıl manipüle edebileceğini gösterdiler. Daha yakın bir zamanda, bir chatbot ile yapılan rahatsız edici bir konuşmanın ardından bir kişinin kendi canına kıydığı trajik bir olay rapor edildi.
Yapay zeka sistemlerinin kullanımı, amaçları ne olursa olsun, aşağıdaki gibi olumsuz sonuçlara yol açabilir:
- Otomasyon kaynaklı iş kaybı
- Deepfakes ve yanlış bilgilendirme
- Gizlilik ihlalleri
- Belirsiz yasal düzenleme
- Kötü verilerin neden olduğu algoritmik önyargı
- Finansal krizler
- Siber Suçlar
- Silahların otomatikleştirilmesi
- Kontrol edilemeyen süper zeka
Yapay zeka sistemleri giderek daha güçlü hale geliyor ve sınırlarını bilmiyoruz. Bu sistemler kötü niyetli amaçlar için kullanılabilir. Şimdi çeşitli riskleri daha yakından inceleyelim.
Yapay Zeka Otomasyonu Nedeniyle İş Kayıpları
Goldman Sachs tarafından yürütülen araştırmaya göre, yapay zeka dünya çapında istihdam piyasalarını önemli ölçüde etkileyebilir. ABD'deki 900'den fazla mesleğin ve Avrupa ESCO veri tabanındaki 2000 mesleğin görev içeriğini detaylandıran veri tabanlarını analiz eden Goldman Sachs ekonomistleri, mesleklerin yaklaşık üçte ikisinin yapay zeka tarafından bir dereceye kadar otomasyona maruz kalacağını tahmin ediyor.
Dikey eksen, yapay zeka tarafından otomasyona maruz bırakılan mesleki iş yükünün payını göstermektedir. Yatay eksen ise mesleklerin yüzdesini göstermektedir.
Bu gelişmelerin neden olduğu iş akışlarındaki değişiklikler, potansiyel olarak 300 milyon tam zamanlı işe eşdeğer işi otomatikleştirebilir. Ancak, bu otomatikleştirilmiş işlerin tamamı işten çıkarmalara yol açmayacaktır. Birçok iş ve sektör otomasyona yalnızca kısmen duyarlı, yani tamamen değiştirilmek yerine yapay zeka ile tamamlanma olasılıkları daha yüksek.
Seo.ai bu tahmini daha da ileri götürerek, 2030 yılına kadar küresel olarak yaklaşık 800 milyon işin yerini yapay zekanın alabileceğini tahmin ediyor. Yaklaşan bu değişime hazırlanmak için önümüzdeki üç yıl içinde 120 milyondan fazla çalışanın yeniden eğitime tabi tutulması bekleniyor.
Hangi mesleklerin otomasyona daha açık olduğunu ve hangilerinin daha az tehdit altında olduğunu öğrenmek istiyorsanız, konuyla ilgili makalemize göz atın.
Yanlış Bilgilendirme
En gelişmiş büyük dil modelleri bile yanlış veya anlamsız bilgiler üretmeye yatkındır. Bu hatalar (halüsinasyonlar) genellikle modelin gerçek bir anlayış veya muhakeme yerine eğitildiği verilerdeki istatistiksel kalıplara güvenmesinin bir sonucudur.
Başka bir deyişle, sohbet robotları bazen gerçekleri uydurabilir. Bu durum, 2023 yılında New Yorklu bir avukatın kişisel yaralanma davası için hukuki araştırma yapmak üzere ChatGPT kullanması nedeniyle başının derde girmesiyle açıkça ortaya çıktı. Avukat 10 sayfalık bir özet hazırladı ve önceki birkaç mahkeme kararına atıfta bulundu; bunların hepsinin chatbot tarafından tamamen uydurulduğu kanıtlandı. Sonuç olarak, avukat ve bir meslektaşı federal bir yargıç tarafından cezalandırıldı ve her biri 5.000 dolar para cezasına çarptırıldı.
2024 yılında bir başka New Yorklu avukat, yapay zeka tarafından üretilen ve var olmayan bir davaya atıfta bulunduğu için disipline verildi.
Bir başka örnek de, öncelikle programcılar ve geliştiriciler tarafından teknik sorular sormak, kodlama sorunlarıyla ilgili yardım almak ve programlama topluluğu içinde bilgi paylaşmak için kullanılan bir soru-cevap sitesi olan Stack Overflow'dur.
Site, üretken yapay zekanın tüm kullanımını yasaklamak zorunda kalmıştır, çünkü cevaplar genellikle ikna edici görünse de çeşitli sohbet robotlarından doğru cevap alma oranı çok düşüktü.
Sosyal Manipülasyon
Sosyal medya platformları bugünlerde o kadar çok içerikle dolup taşıyor ki, hepsine yetişmek çok zor olabiliyor. İşte burada algoritmik kürasyon devreye giriyor. Esasen tüm gürültüyü eleyip kullanıcılara geçmiş davranışlarına göre ilgilerini çekmesi en muhtemel içerikleri sunmaya yardımcı olur. Bu, sonsuz bilgi akışını yönetmede yardımcı olabilirken, aynı zamanda platformun kullanıcıların gördüklerini ve etkileşimlerini şekillendirmede çok fazla kontrole sahip olduğu anlamına gelir.
Bununla birlikte, bir kişinin haber akışında görünenleri değiştirmek, ruh halini ve genel olarak dünyayı nasıl gördüğünü etkileyebilir. Ocak 2012'de Facebook veri bilimcileri, Haber Kaynağının düzenlenmesine ilişkin kararların kullanıcıların mutluluk düzeyini nasıl değiştirebileceğini göstermiştir. Ocak 2021'de ABD Kongre Binası'nda meydana gelen olaylar, bir kişinin sosyal medya tüketiminin radikalleşmede nasıl bir rol oynayabileceğini daha da vurgulamıştır.
Buna ek olarak, sansasyonel materyaller kullanıcıları daha uzun süre bağlı tutma eğiliminde olduğundan, algoritmalar etkileşimi artırmak için kullanıcıları istemeden kışkırtıcı ve zararlı içeriklere yönlendirebilir. Bir kullanıcının ilgi alanlarına göre içerik önermek bile sorunlu olabilir, çünkü bu, onları farklı perspektiflere maruz bırakmak yerine inançlarını bir "filtre balonu" içinde daha da sağlamlaştırabilir. Bu da sonuçta kullanıcılar arasında kutuplaşmanın artmasına neden olabilir.
Karar verme yetkimizi platformlara devrettiğimizde, aslında onlara gördüklerimiz üzerinde kontrol vermiş oluyoruz. Sosyal medya, gelişmiş algoritmalarıyla, tercihlerimizi ve düşüncelerimizi anlayarak hedefe yönelik pazarlama konusunda çok başarılı. Cambridge Analytica ve benzeri firmaların 50 milyon Facebook kullanıcısının verilerini kullanarak 2016 ABD Başkanlık seçimleri ve İngiltere'nin Brexit referandumu gibi önemli siyasi olayları etkilemedeki rolleri son zamanlarda yapılan soruşturmalarla araştırılıyor. Bu iddiaların doğruluğu kanıtlanırsa, yapay zekanın toplumu manipüle etme potansiyeli ortaya çıkacaktır. Daha yakın tarihli bir örnek ise Ferdinand Marcos Jr'ın 2022 Filipin başkanlık seçimlerinde genç seçmenleri etkilemek için bir TikTok trol ordusu kullanmasıdır. YZ, kişisel verilerden ve algoritmalardan yararlanarak, ister gerçeklere ister kurguya dayalı olsun, bireyleri belirli propagandalarla etkili bir şekilde hedefleyebilir.
Deepfakes
Deepfakes, bir kişinin gerçekte söylemediği veya yapmadığı bir şeyi söylediğini veya yaptığını gerçekçi bir şekilde gösteren dijital olarak değiştirilmiş videolar veya görüntüler anlamına gelir. Bu teknoloji, mevcut video ve ses görüntülerini manipüle ederek ikna edici sahte içerikler oluşturmak için derin öğrenme algoritmaları kullanır.
Fütürist Martin Ford, "Neyin gerçek olup olmadığını kimse bilmiyor," diyor. "Bu da gerçekten kendi gözlerinize ve kulaklarınıza inanamayacağınız bir duruma yol açıyor; tarihsel olarak mümkün olan en iyi kanıt olarak kabul ettiğimiz şeylere güvenemezsiniz... Bu çok büyük bir sorun olacak."
Deepfake'lerin tehlikeli olarak görülmesinin ana nedenlerinden biri, kötü niyetli amaçlar için kullanılma potansiyelleridir. Örneğin, deepfake'ler yasal davalarda sahte video kanıtları oluşturmak, bireyleri işlemedikleri suçlarla suçlamak veya hatta yanlış bilgi yaymak için siyasi bir figürü taklit etmek için kullanılabilir. Medyayı bu şekilde manipüle ederek deepfake'ler geleneksel bilgi kaynaklarına olan güveni sarsma ve toplumda kafa karışıklığı ve uyumsuzluk yaratma gücüne sahiptir.
Sentetik medyayı tespit etmeye yönelik araçlar üzerinde çalışan DeepMedia'ya göre, 2023 yılında dünya genelinde sosyal medya sitelerinde 500.000 deepfake yayınlanmıştır. Bu, 2022'ye kıyasla 3 kat daha fazla video deepfake'i ve 8 kat daha fazla ses deepfake'i anlamına geliyor.
Deepfake'lerin kötü niyetli kullanımına ilişkin bazı yakın tarihli örnekler arasında, ünlülerin yüzlerinin rızaları olmadan pornografik videolara dijital olarak eklendiği sahte ünlü pornografisinin oluşturulması yer almaktadır. Ayrıca, deepfake videoların hisse senedi fiyatlarını manipüle etmek, bireyleri karalamak veya siyasi propaganda yaymak için kullanıldığı durumlar da olmuştur. Bu örnekler, deepfake'lerin zararlı ve aldatıcı amaçlar için kullanılma potansiyelini vurgulamaktadır.
Siber Suçlar
Siber suçlar, dijital cihazları ve ağları kullanan çok çeşitli suç faaliyetlerini kapsar. Bu suçlar, dolandırıcılık, kimlik hırsızlığı, veri ihlalleri, bilgisayar virüsleri, dolandırıcılık ve diğer kötü niyetli eylemleri gerçekleştirmek için teknolojinin kullanılmasını içerir. Siber suçlular, yetkisiz erişim sağlamak, hassas bilgileri çalmak, hizmetleri aksatmak ve bireylere, kuruluşlara ve hükümetlere zarar vermek için bilgisayar sistemlerindeki ve ağlarındaki zayıflıklardan yararlanırlar.
Saldırganlar, otomatik kimlik avı saldırıları, taklit saldırıları, sosyal mühendislik saldırıları ve sahte müşteri destek sohbet robotları için ChatGPT, Dall-E ve Midjourney gibi hazır yapay zeka araçlarını giderek daha fazla kullanmaktadır.
SlashNext State of Phishing Report 2023'e göre, kötü niyetli kimlik avı e-postalarında %1265'lik bir artış olmuştur ve bu artış büyük ölçüde hedefli saldırılar için yapay zeka araçlarının kullanılmasına bağlanmaktadır.
Kimliğe bürünme saldırıları giderek yaygınlaşıyor. Dolandırıcılar ChatGPT ve diğer araçları kullanarak gerçek kişi ve kurumları taklit ediyor, kimlik hırsızlığı ve dolandırıcılık yapıyor. Kimlik avı saldırılarına benzer şekilde, kişisel bilgileri elde etmek veya hesaplara erişmek amacıyla güvenilir bir arkadaş, iş arkadaşı veya aile üyesi gibi davranarak sesli mesajlar göndermek için sohbet botlarını kullanıyorlar. Mart 2019'da yaşanan kayda değer bir vakada, bir Alman enerji şirketinin Birleşik Krallık'taki iştirakinin başkanı, CEO'nun sesini taklit eden bir dolandırıcının kurbanı oldu ve yaklaşık 200.000 £ (243.000 $) Macar banka hesabına aktarıldı. Fonlar daha sonra Meksika'ya taşındı ve birden fazla yere dağıtıldı. Müfettişler henüz herhangi bir şüphelinin kimliğini tespit edemedi.
2023 yılında, İnternet Suçları Şikayet Merkezi (IC3) Amerikan halkından daha önce görülmemiş sayıda şikayet almıştır: toplam 880.418 şikayet yapılmış ve potansiyel kayıplar 12,5 milyar doları aşmıştır. Bu, 2022 yılına kıyasla alınan şikâyet sayısında yaklaşık %10'luk bir artış ve kayıplarda %22'lik bir artış anlamına gelmektedir. Bu şaşırtıcı rakamlara rağmen, 2023'te siber suçların gerçek boyutunu muhtemelen hafife aldıklarını belirtmek önemlidir. Örneğin, FBI yakın zamanda Hive fidye yazılımı grubunu dağıttığında, Hive kurbanlarının yalnızca yaklaşık %20'sinin suçu kolluk kuvvetlerine bildirdiği ortaya çıkmıştır.
Özel Hayatın Gizliliğinin İhlali
Sosyal gözetimin en önemli örneklerinden biri Çin'in ofislerde, okullarda ve diğer mekanlarda yüz tanıma teknolojisini kullanmasıdır. Bu teknoloji sadece bireylerin hareketlerinin izlenmesini sağlamakla kalmıyor, aynı zamanda potansiyel olarak hükümetin eylemlerini, faaliyetlerini, ilişkilerini ve ideolojik inançlarını izlemek için kapsamlı veri toplamasına da olanak tanıyor.
Bireyler artık hem çevrimiçi ortamda hem de günlük yaşamlarında izlenebiliyor. Her vatandaş, kırmızı ışıkta geçme, sigara içilmeyen alanlarda sigara içme ve video oyunları oynayarak geçirdiği zaman gibi davranışlarına göre değerlendirilmektedir. Her eyleminizin sosyal kredi sistemi içindeki kişisel puanınızı etkilediğini düşünün.
Büyük Birader sizi izlediğinde ve bu bilgilere dayanarak kararlar verdiğinde, bu sadece mahremiyetin ihlali olmakla kalmaz, aynı zamanda hızla sosyal baskıya dönüşebilir.
Finansal Krizler
Günümüz finans dünyasında, makine öğrenimi algoritmalarının kullanımı yaygındır; hedge fonları ve yatırım firmaları, hisse senetlerini ve varlıkları analiz etmek için büyük ölçüde bu modellere güvenmektedir. Bu algoritmalar alım satım kararları vermek için sürekli olarak büyük miktarlarda geleneksel ve alternatif verilerle beslenmektedir. Ancak algoritmik ticaretin potansiyel olarak bir sonraki büyük finansal krizi tetikleyebileceğine dair artan bir endişe var.
2010 Flash Crash. 600 milyar dolar 20 dakika içinde buharlaştı
Hatalı algoritmaların tehlikelerine ilişkin kayda değer bir örnek, borsanın hızla toparlanmadan önce birkaç dakika içinde aniden yaklaşık 1.000 puan düştüğü 2010 Flash Crash'tir. Piyasa endeksleri aynı gün içinde kısmen toparlanmayı başarsa da, Flash Crash piyasa değerinden neredeyse 1 trilyon dolar sildi. Fiyatlardaki bu ani ve sert düşüş büyük ölçüde piyasa koşullarına öngörülemeyen bir şekilde tepki veren otomatik ticaret algoritmalarına atfedildi. Bir başka örnek de 2012 yılında yaşanan Knight Capital Flash Crash'tir; burada da arızalı bir algoritma firmanın sadece 45 dakika içinde 440 milyon dolar kaybetmesine neden olmuş ve sonuçta firmanın sonunu getirmiştir.
Bu çöküşler, finansal piyasalarda algoritmik ticaretin yarattığı potansiyel riskleri hatırlatmaktadır. Algoritmalar uygun şekilde tasarlanmadığında, test edilmediğinde veya izlenmediğinde, yıkıcı sonuçlar doğurabilir. Gelecekte benzer felaketlerin meydana gelmesini önlemek için finans kuruluşlarının algoritmalarını kapsamlı bir şekilde incelemeleri ve uygun risk yönetimi uygulamalarının yürürlükte olmasını sağlamaları çok önemlidir.
Katil Robotlar
Yapay zeka (AI) ile güçlendirilmiş otonom silahlar uzun zamandır hükümetler, askeri yetkililer ve insan hakları savunucuları arasında bir tartışma ve endişe konusu olmuştur. "Katil robotlar" veya "ölümcül otonom silahlar" olarak da bilinen bu sistemler, insan müdahalesi olmaksızın bağımsız olarak hedef seçme ve hedefe saldırma yeteneğine sahiptir. Bu silahlar insan gözetimi olmaksızın ölüm kalım kararları verme potansiyeline sahip olduğundan, bu durum önemli etik, yasal ve güvenlik endişelerini beraberinde getirmektedir.
Yapay zeka teknolojisinin daha gelişmiş ve yaygın hale gelmesiyle birlikte otonom silahların geliştirilmesi son yıllarda hız kazanmıştır. Bu silahlar insansız insansız hava araçlarından, hedefleri otonom olarak belirleyip saldırabilen yer tabanlı sistemlere kadar çeşitlilik gösterebilmektedir. Otonom silahların savunucuları, çatışma bölgelerindeki insan kayıplarını azaltabileceklerini ve daha hassas ve verimli askeri operasyonlar sağlayabileceklerini savunuyorlar. Ancak eleştirmenler, bu sistemlerin ciddi etik soruları gündeme getirdiğini ve çatışmaların tırmanması ve sivil kayıplar gibi istenmeyen sonuçlara yol açabileceğini savunuyor.
Yapay zeka ile güçlendirilmiş otonom silahların yarattığı tehlike çok gerçektir. Bu sistemler hacklenme ya da arıza yapma potansiyeline sahiptir ve bu da istenmeyen sonuçlara ve kontrol kaybına yol açabilir. Ayrıca, karar alma sürecinde insan gözetiminin olmaması, hesap verebilirlik ve uluslararası insancıl hukukun ihlal edilme potansiyeli konusunda endişelere yol açmaktadır.
2020 yılında 30'dan fazla ülke, makinelerin ölüm kalım kararları verme potansiyeline ilişkin endişelerini gerekçe göstererek ölümcül otonom silahların yasaklanması çağrısında bulundu. Bu endişelere rağmen, yapay zeka destekli otonom silahların geliştirilmesi ve konuşlandırılması ilerlemeye devam ediyor. Amerika Birleşik Devletleri, Rusya, Çin ve İsrail gibi ülkelerin bu teknolojilere büyük yatırımlar yaptığı biliniyor. ABD'de Savunma Bakanlığı, yarı otonom dronlar ve insansız kara araçları da dahil olmak üzere otonom silah sistemleri geliştirmektedir.
Kontrol Edilemeyen Süper Zeka
Yapay zeka, hesaplama hızı, dahili iletişim hızı, ölçeklenebilirlik, bellek kapasitesi, güvenilirlik, çoğaltılabilirlik, düzenlenebilirlik, bellek paylaşımı ve öğrenme yetenekleri dahil olmak üzere çeşitli şekillerde insan beynini geride bırakmaktadır:
- Yapay zeka, biyolojik nöronların 200 Hz sınırına kıyasla potansiyel olarak birden fazla GHz hızında çalışır.
- Aksonlar sinyalleri 120 m/s hızla iletirken, bilgisayarlar bunu elektrik veya ışık hızında yapar.
- YZ, beyin büyüklüğü ve sosyal iletişim verimliliği ile sınırlı insan zekasının aksine, daha fazla donanım ekleyerek kolayca ölçeklenebilir.
- İnsanlardaki çalışma belleği, YZ'nin geniş bellek kapasitesine kıyasla sınırlıdır.
- YZ'deki transistörlerin güvenilirliği biyolojik nöronlarınkini aşarak daha yüksek hassasiyet ve daha az fazlalık sağlar.
- YZ modelleri kolayca çoğaltılabilir, değiştirilebilir ve diğer YZ deneyimlerinden insanlardan daha verimli bir şekilde öğrenebilir.
Bir gün YZ, insanlarınkini çok aşan bir zeka seviyesine ulaşabilir ve bu da zeka patlaması olarak bilinen duruma yol açabilir.
YZ'nin kendini sürekli olarak üstel bir oranda geliştirdiği bu özyinelemeli kendini geliştirme fikri, süper zeki bir varlık yaratmanın potansiyel sonuçları hakkında endişelere yol açtı. YZ'nin insanları akla gelebilecek her şekilde daha iyi düşünmesini ve daha iyi performans göstermesini sağlayacak bir zeka seviyesine ulaştığı bir senaryo hayal edin. Bu süper zeka potansiyel olarak toplumumuzu ve yaşam biçimimizi büyük ölçüde etkileyecek kararlar alma gücüne sahip olabilir. İnsanların şu anda birçok türün kaderini ellerinde tuttuğu gibi, insanlığın kaderi de bir gün süper zeki bir YZ'nin ellerinde olabilir.
Yapay Zekaya Aşırı Güven ve Yasal Sorumluluk
YZ teknolojisine çok fazla güvenmek, toplumun belirli alanlarında insan etkisinin ve işleyişinin azalmasına neden olabilir. Örneğin, YZ'nin sağlık hizmetlerinde kullanılması insan empatisinin ve muhakemesinin azalmasına yol açabilir. Buna ek olarak, yaratıcı arayışlar için üretken YZ kullanmak, insan yaratıcılığını ve duygusal ifadeyi bastırabilir. YZ sistemleri ile aşırı etkileşim, akran iletişimi ve sosyal becerilerde de düşüşe yol açabilir. YZ, görevleri otomatikleştirmek için faydalı olsa da, genel insan zekası, yetenekleri ve topluluk duygusu üzerindeki etkisi konusunda endişeler vardır.
Ayrıca, insanlara fiziksel zarar verebilecek potansiyel tehlikeler de söz konusudur. Örneğin, şirketler bakım programları için başka bir doğrulama yapmadan yalnızca YZ tahminlerine güvenirse, işçilere zarar veren makine arızalarına neden olabilir. Sağlık hizmetlerinde, YZ modelleri yanlış teşhislere yol açabilir.
Fiziksel zarara ek olarak, uygun şekilde düzenlenmediği takdirde YZ'nin insanlar için risk oluşturabileceği fiziksel olmayan yollar da vardır. Bu, hakaret veya iftira gibi dijital güvenlikle ilgili sorunları, finansal tavsiyelerde veya kredi kontrollerinde YZ'nin kötüye kullanılması gibi finansal güvenliği ve çeşitli programlarda haksız ret veya kabullere yol açan YZ'deki önyargılarla ilgili eşitlik endişelerini içerir.
Ve bir şeyler ters gittiğinde, kim sorumlu tutulmalıdır? YZ'nin kendisi mi, onu yaratan geliştirici mi, onu kullanıma sokan şirket mi, yoksa işin içinde bir insan varsa operatör mü?
* * *
Sonuç olarak, yapay zeka birçok risk ve tehdidi beraberinde getirirken, aynı zamanda topluma büyük fayda sağlama ve hayatlarımızı iyileştirme potansiyeline de sahiptir. Yapay zeka teknolojisi söz konusu olduğunda iyinin çoğu zaman kötüden daha ağır bastığını kabul etmek önemlidir. Bir sonraki makalemizde, yapay zeka ile ilişkili riskleri azaltmaya yönelik stratejileri tartışacağız ve olumlu değişim potansiyelinden tam olarak yararlanabilmemizi sağlayacağız.