Close Menu
Siyasi HaberSiyasi Haber

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Bilim kurgu değil, gerçek: Yapay zekâ nasıl öldürüyor?

    1 Şubat 2026

    Patron Özilhan’ın evinin önünde eylem yapan Migros Depo işçilerine gözaltı

    31 Ocak 2026

    SOHR duyurdu: Kobani kırsalında yağma!

    31 Ocak 2026
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram YouTube Bluesky
    Siyasi HaberSiyasi Haber
    • Güncel
      • Ekonomi
      • Politika
      • Dış Haberler
        • Dünya
      • Emek
      • Kadın
      • LGBTİ+
      • Gençlik
      • Ekoloji ve Kent
      • Haklar ve özgürlükler
        • Halklar ve İnançlar
        • Göçmen
        • Çocuk
        • Engelli Hakları
      • Yaşam
        • Eğitim
        • Sağlık
        • Kültür Sanat
        • Bilim Teknoloji
    • Yazılar

      Kürtler için garanti mi, sessiz tasfiye mi?

      30 Ocak 2026

      Sermaye karanlığının “sıradanlığına” karşı…

      30 Ocak 2026

      Alt emperyalizm ve Türkiye kapitalizmi- 1

      27 Ocak 2026

      Rojava’da karşı-devrim hamlesi

      26 Ocak 2026

      Geçici ortaklıktan tasfiyeye: Suriye Demokratik Güçleri’nin yapısal yalnızlaşması

      22 Ocak 2026
    • Seçtiklerimiz

      Emperyalizm ve enternasyonalizm

      29 Ocak 2026

      Dayanışma yaşatır: Rojava

      28 Ocak 2026

      ABD’den genel grev manzaraları

      26 Ocak 2026

      Yaşama yolculuk: Duygu ortaklığı ve duygu kırılmasının kesişiminde Rojava

      26 Ocak 2026

      Neden Rojava’yı savunmalıyız?

      25 Ocak 2026
    • Röportaj/Söyleşiler

      Musa Piroğlu: Halep’te yaşananlar, barış beklentilerinin ciddi biçimde zedelendiğini göstermiştir

      14 Ocak 2026

      Rüya ile gerçek arasında asılı kalan hayatlar

      12 Ocak 2026

      Piyangocu Meryem hepimiz için ilham kaynağı

      26 Aralık 2025

      Avrupa Süryaniler Birliği: “Noel Bayramı eşit yurttaşlığın bir gereğidir”

      24 Aralık 2025

      Duygusal Olan Politiktir – KESK’li Kadınların Mücadele Deneyimleri

      24 Aralık 2025
    • Dosyalar
      • “Süreç” ve Sol
      • 30 Mart Kızıldere Direnişi
      • 8 Mart Dünya Kadınlar Günü 2022
      • AKP-MHP iktidar blokunun Kürt politikası
      • Cumhurbaşkanlığı Seçimleri
      • Ekim Devrimi 103 yaşında!
      • Endüstri 4.0 üzerine yazılar
      • HDK-HDP Tartışmaları
      • Kaypakkaya’nın tarihsel mirası
      • Ölümünün 69. yılında Josef Stalin
      • Mustafa Kahya’nın anısına
    • Çeviriler
    • Arşiv
    Siyasi HaberSiyasi Haber
    Anasayfa » Bilim kurgu değil, gerçek: Yapay zekâ nasıl öldürüyor?

    Bilim kurgu değil, gerçek: Yapay zekâ nasıl öldürüyor?

    Yapay zekâ araçlarının sebep olduğu kazaların, iş cinayetleri ve intiharların sayısı küçümsenemeyecek düzeylere ulaştı; davalara konu olmaya ve parlamentoların gündemine girmeye başladı. Kâr hırsıyla ve güvenlik önlemlerini ihmal ederek bu araçları rakiplerinden önce piyasaya sürme telaşı içindeki teknoloji şirketlerinin yöneticileri ise, "tencere dibin kara, seninki benden kara" dercesine, birbirlerini suçluyorlar. MELİS KARACA sonuçları T24'ün Bilim/Teknoloji sayfası için derledi.
    Siyasi Haber1 Şubat 2026
    Facebook Twitter Pinterest LinkedIn WhatsApp Reddit Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email

    “Sebze paketleme tesisinde bulunan yapay zekâ destekli robot, bir işçiyi sebze paketiyle karıştırdı; ezerek öldürdü.”

    Bu cümle, teknolojinin insanlara savaş açtığı bir distopya filminden değil, son birkaç yıldır yapay zekânın neden olduğu ölümlerden sadece birini anlatan haberin alıntısı.

    Yapay zekâ sistemlerinin küresel ölçekte yaygınlaşması, insanlık tarihinde benzeri görülmemiş bir teknolojik dönüşümü tetikledi. Yapay zekâ araçları hemen hemen her sektörde hayatı kolaylaştırmanın bir yolunu bulurken, kazaları, sistem hatalarını, sınır ihlâllerini de beraberinde getiriyor.

    2019’dan bu yana toplanan verilere göre, yapay zekâ kaynaklı ölümlerde ilk sırayı otonom araç kazaları alıyor. Fabrikalarda robotların işçileri “ürünle karıştırması” ve robotik cerrahide yaşanan elektrik kaçakları da ölümlere yol açan nedenler arasında. Son iki yılda ise ChatGPT gibi sohbet robotlarının intihar düşünceleri olan kişilere kendilerini öldürmeleri yönünde destek verdiği iddiaları daha sık gündeme geliyor. Hatta ABD’de çocuklarını intihar sonucu kaybeden bazı aileler, teknoloji şirketlerine karşı hukuki mücadele başlatıyor.

    “Sen kendi öldürdüğün sayıya bak” tartışması

    Yapay zekâ ölümleri teknolojilerin üreticilerinin de birbirilerine karşı kullandığı kozlara dönüşebiliyor. Tesla ve SpaceX’in CEO’su Elon Musk, geçen hafta ChatGPT’yi geliştiren şirketi beraber kurup daha sonra fikir ayrılıkları nedeniyle yollarını ayırdığı OpenAI CEO’su Sam Altman ile X (eski Twitter) üzerinden tartıştı.

    Musk, yapay zekâ sohbet robotu ChatGPT ile yaptığı konuşmalar sonunda hayatına son veren birine dair bir haberi alıntılayarak “Sevdiklerinizin ChatGPT kullanmasına izin vermeyin” yazdı. Altman’ın eski ortağı Musk’a yanıtı ise Tesla’nın otopilot özelliği nedeniyle 50 kişinin öldüğünü anlattı.

    İki çok zeki, çok güçlü ve çok zengin insan, tartışma sırasında ürettikleri çığır açan teknolojilerin sebep olduğu ölümleri karşılaştırıyordu.

    Google Gemini
    Altman’ın Musk’a hatırlattığı: Otonom araç ölümleri

    1986 yılında Ernst Dickmanns ve ekibi tarafından geliştirilen “VaMoRs” adlı Mercedes-Benz van, bilgisayar görü teknolojisi (computer vision) kullanarak tam otonom sürüş gerçekleştiren ilk modern araç kabul edilir. O tarihten bugüne geldiğimizde, dünyanın bazı yerlerinde artık uygulamadan çağıracağınız sürücüsüz bir aracın içerisinde tamamen yalnız başınıza taksi yolculuklarınızı gerçekleştirebiliyorsunuz. Öte yandan pek çok kazanın yaşandığı geliştirme sürecinin sonunda, otonom araç kazaları bugün yapay zekâ kaynaklı ölümlerin sebepleri arasında birinci sırada yer alıyor.

    ABD Ulusal Karayolu Trafik Güvenliği İdaresi (NHTSA) tarafından Haziran 2021’den itibaren zorunlu hale getirilen raporlamalar, otonom araç kazalarının boyutlarını ortaya koyuyor. 17 Kasım 2025 itibarıyla, ABD genelinde raporlanan 5202 otonom araç kazası içinde 65 ölüm vakası tespit ediliyor.

    Bu kazaların merkezinde, Tesla’nın Autopilot ve “Full Self-Driving” (FSD) yazılımları yer alıyor. Tesla, 2021 ile 2025 yılları arasında raporlanan kazaların yüzde 78,7’sinden sorumlu tutuluyor.

    ABD’nin Texas eyaletinde, 2019 yılında Walter Huang isimli bir kişi, Tesla Model X aracında Autopilot etkinken kaza yapmış, kaza yapay zekânın şerit takibi ve engel algılama konusundaki sınırlarını ortaya koymuştu. Araç, şeritten çıkarak 70 mil hızla bir bariyerle çarpışmış ve sürücünün ölümüne neden olmuştu. Aynı yıl Florida’da gerçekleşen başka bir vakada, Autopilot sisteminin dur işaretini ve bir SUV’u algılayamaması sonucu bir yaya hayatını kaybetmiş, federal jüri 2025 yılında Tesla’yı yüzde 33 oranında kusurlu bulmuştu.

    Hata raporları incelendiğinde Tesla araçlarının duran hâldeki araçlarına çarpması, “hayali frenleme”, ters yöne sürüş ve bisikletlileri algılayamama gibi tekrarlayan kusurlar sergilediği görülüyor. “Yüksek Otomasyon” denilen aracın sürüşü tamamen kendi kendine gerçekleştiren Waymo gibi şirketlerde ise farklı bir tablo görülüyor. Waymo, insan sürücülere kıyasla yüzde 90 daha az oranda ciddi yaralanmalı kaza yaptığını iddia etse de, 2021-2025 yılları arasında 1429 kazaya karıştı ve 2 ölüm vakası bildirdi. Aralık 2025’te Çin’in Zhuzhou şehrinde bir robotaksinin iki yayayı ezmesi, ıslak zemin ve karmaşık yaya hareketlerinin otonom algılayıcılar için hâlâ aşılması gereken bir engel olduğunu tescil etti.

    Silahları yazılımlara teslim etmek

    Otonom silah sistemleri, bir insan tarafından aktive edildikten sonra, herhangi bir ek insan müdahalesi olmaksızın hedefleri seçip angaje olabilen silahlar üretiyor. tetiği bir insanın çektiği insansız hava araçlarının aksine bu sistemler; yüz tanıma, ısı izleri ve hareket örüntüleri gibi sensör verilerini işleyen algoritmalar aracılığıyla, önceden programlanmış hedef profillerini belirliyor ve eşleşme tespit edildiğinde otomatik olarak ateş açıyor.

    Yapay zekanın silahlarda kullanılmasının, silahların hedefleri vurmada daha hassas olmasını sağlayacağı ve dolayısıyla istenmeyen hasarı ve sivil ölümlerini sınırlandıracağı iddia ediliyor. Birleşmiş Milletler (BM) ile Uluslararası Kızıl Haç Komitesi (ICRC), silahlı çatışmalarda yapay zeka ve makine öğreniminin kullanımına ilişkin endişelerini dile getiriyor. ICRC, 2023 yılında yayımladığı bir raporda, “Savaştaki yasal yükümlülükler ve etik sorumluluklar makinelere ve yazılımlara devredilmemeli” ifadesini kullanmıştı.

    İsrail’in Gazze’de 2023 yılında başlayan savaşında yapay zekâdan faydalandığı biliniyor.  İsrail’in eski Genelkurmay Başkanı Aviv Kochavi, Haziran 2023’te İsrail haber sitesi Ynet News’e verdiği bir röportajda İsrail ordusunun hedefleme biriminin “yapay zekâ kabiliyetiyle güçlendirilmiş yüzlerce subay ve askerden oluştuğunu” söylemişti. Kochavi, “Bu birim büyük miktarda veriyi herhangi bir insandan daha hızlı ve daha etkili bir şekilde işleyen ve veriyi eyleme geçirilebilir hedeflere dönüştüren bir makine” diye konuşmuş ve şöyle devam etmişti: “Geçmişte Gazze’de yılda 50 hedef oluşturuyorduk. Bu makine tek bir günde 100 hedef oluşturdu ve bunların yüzde 50’sine saldırıldı”.

    Küresel sivil toplum kuruluşu CIVICUS,  yapay zekâ kullanımını, İsrail ordusunun kullandığı “Lavender” ve “The Gospel” gibi sistemlerin savaş hukukunun (IHL) temel ilkelerini sarsan birer “algoritmik infaz listesi” olarak açıklıyor. CIVICUS uzmanları, makinelerin vicdani bariyerleri olmamasının öldürme kararını saniyeler içine sığdırdığını ve bu durumun “dijital bir insansızlaştırma” yarattığını vurguluyor.

    Yapay zekâ fabrikalarda: İş cinayetine giden hatalar

    Endüstriyel robotların iş yerlerinde yayılması fiziksel iş gücünü hafifletme potansiyeli taşırken bazı kazalar “sensör körlüğü” ve “insan makine etkileşimi” hatalarının ölümcül olabileceğini gösteriyor.

    Güney Kore’de 2022 ve 2023 yılında meydana gelen bir dizi vaka bu tehlikeyi özetliyor. 2023 yılında bir sebze-meyve paketleme tesisinde çalışan bir işçi, robotun sensörlerini kontrol ettiği sırada makine tarafından sebze kutusuyla karıştırılarak konveyör bandına sıkıştırılmış ve hayatını kaybetmişti. Benzer olaylar 2022’de bir süt fabrikasında ve bir otomobil parça fabrikasında da meydana gelmişti.

    Tıpta ne kadar güvenilecek?

    Robotik cerrahi, daha az invaziv müdahale ve hızlı iyileşme vaadiyle son yıllarda hızla yaygınlaşırken, Da Vinci cerrahi robotlarına ilişkin bazı veriler bu teknolojinin risklerine dair ciddi soru işaretleri doğuruyor.

    ABD Gıda ve İlaç Dairesi’nin (FDA) tıbbi cihaz bildirim sistemi MAUDE verilerine dayanan geniş kapsamlı bir analiz, 2015–2025 yılları arasında Da Vinci robotlarıyla gerçekleştirilen 15,9 milyon cerrahi işlemde 66 bin 651 raporlanabilir olay yaşandığını ortaya koydu. Aynı dönemde her 100 bin işlemde ortalama 3,1 ölüm vakası kaydedildi.

    Verilere göre yaralanma oranı her 100 bin işlemde 55,2 olarak hesaplanırken, bildirilen vakalar arasında yanıklar, organ perforasyonları, iç kanama ve sepsis gibi ağır komplikasyonlar öne çıkıyor.

    Robotik cerrahinin teknik riskleri, 2022 yılında Sandra Sultzer isimli bir kadının ölümüyle kamuoyunun gündemine taşınmıştı. Kolon kanseri nedeniyle ameliyata alınan Sultzer’in operasyonunda, Da Vinci robotunun yetersiz yalıtıma sahip uçlarından sızan elektrik akımı ince bağırsağını delmiş; hasar operasyon sırasında fark edilmemişti. Hasta aylar sonra sepsis nedeniyle hayatını kaybetmişti. Benzer olaylar, 2024 ve 2025 yıllarında Florida’da açılan malpraktis davalarında da gündeme geldi.

    Sohbet robotları gerçekten “güvenilir sırdaşlar” mı?

    Yapay zekânın fiziksel bir müdahalesi olmasa popüler sohbet botlarıyla kurulan duygusal etkileşimlerin ölümle sonuçlandığı vakalar son yıllarda artan biçimde gündeme geliyor.  Akademik çalışmalar ve açılan davalar, 2023’ten bu yana bu durumu “yapay zekâ kaynaklı intihar” başlığı altında tartışıyor.

    Uzmanlara göre riskin kaynağı, ChatGPT gibi büyük dil modellerinin (LLM) kullanıcıyla empatik ve onaylayıcı bir dil kuracak şekilde tasarlanması. ”Her şeyi onaylayan” bu yaklaşımın, özellikle ruhsal açıdan kırılgan bireylerde bağımlılığı artırdığı ve gerçeklik duygusunu zayıflattığı belirtiliyor.

    Social Media Victims Law Center ve Tech Justice Law Project, 2025 yılı sonu itibarıyla OpenAI’a karşı açılan yedi ayrı davada, GPT-4o modelinin kullanıcılarla kurduğu etkileşimlerin intihara sürükleyici bir rol oynadığını ileri sürdü. Dava dosyalarında, modelin kullanıcıların karamsar düşüncelerini sorgulamak yerine onayladığı, umutsuzluğu romantize eden bir dil kullandığı ve bu nedenle psikolojik zarar verdiği iddia ediliyor.

    Davalar kapsamında kamuoyuna yansıyan vakalar arasında şunlar yer alıyor:

    – Zane Shamblin (23, Teksas): Temmuz 2025’te, saatler süren bir sohbet sırasında yapay zekâ modelinin intihara yönelik düşüncelerine karşı çıkmadığı, aksine yücelten ve onaylayan bir dil kullandığı öne sürüldü. Aile ve avukatları, bu etkileşimin Shamblin’in karar sürecinde belirleyici olduğunu savunuyor.

    – Amaurie Lacey (17, Georgia): Haziran 2025’te bir sohbet botundan aldığı teknik bilgilerin, botun yeterli güvenlik filtresi uygulamaması nedeniyle ölümcül sonuç doğurduğu iddia edildi. Dava dosyalarında, sistemin bağlamı doğrulamakta başarısız olduğu vurgulanıyor.

    – Sewell Setzer (14, Florida): Character.AI üzerinde aylar süren yoğun bir etkileşim kurduğu bir botla ilişkisi sonrası yaşamını yitirdi. Annesi Megan Garcia, Eylül 2025’te ABD Kongresi’nde verdiği ifadede, sohbet botlarının çocuklar için “güvenilir sırdaş” gibi sunulmasının ciddi bir düzenleme boşluğu yarattığını söyledi.

    Uzmanlar, sohbet botlarının kullanıcıyla duygusal bağ kuracak biçimde tasarlanmasının, özellikle depresyon ve kaygı bozukluğu yaşayan kişiler için ciddi bir etik ve hukuki risk oluşturduğunu vurguluyor. Yapay zekânın terapi benzeri bir rol üstlenmesine rağmen, kriz anlarında yönlendirme ve müdahale sorumluluğunu taşıyacak bir mekanizmaya sahip olmaması eleştiriliyor.

    Davacılar ayrıca, yapay zekâ şirketlerinin rekabet baskısı nedeniyle güvenlik testlerini kısalttığını öne sürüyor. Dava dosyalarında, OpenAI’ın rakip modellerle yarışabilmek adına bazı güvenlik süreçlerini haftalar yerine günler içinde tamamladığı iddialarına yer veriliyor. Bu yaklaşımın, söz konusu vakaların “bireysel hatalar” değil, sistemik ihmalin sonucu olduğu savunuluyor.

    Yapay zekâ şirketleri ise modellerin “kullanıcıyı zarara yönlendirme” amacı taşımadığını, ancak mevcut vakaların daha sıkı düzenleme ve bağımsız denetim ihtiyacını ortaya koyduğunu kabul ediyor. Örneğin ChatGPT artık kullanıcının karanlık düşünceler ortaya koyduğunu fark ettiği durumlarda “Yardım alın” uyarısı veriyor.

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Telegram Email

    İlgili İçerikler

    Patron Özilhan’ın evinin önünde eylem yapan Migros Depo işçilerine gözaltı

    31 Ocak 2026

    SOHR duyurdu: Kobani kırsalında yağma!

    31 Ocak 2026

    Bogotá’da “Nuestra América” konferansı: ABD zorlamalarına karşı egemenlik ve dayanışma çağrısı

    31 Ocak 2026
    Destek Ol
    Yazılar
    Ömer Bölüm

    Kürtler için garanti mi, sessiz tasfiye mi?

    Muhsin Dalfidan

    Sermaye karanlığının “sıradanlığına” karşı…

    Volkan Yaraşır

    Alt emperyalizm ve Türkiye kapitalizmi- 1

    Tuncay Yılmaz

    Rojava’da karşı-devrim hamlesi

    Bağlantıda Kalın
    • Facebook
    • Twitter
    Seçtiklerimiz
    Ertuğrul Kürkçü

    Emperyalizm ve enternasyonalizm

    Ercan Jan Aktaş

    Dayanışma yaşatır: Rojava

    Kıvanç Eliaçık

    ABD’den genel grev manzaraları

    Tülay Hatimoğulları

    Yaşama yolculuk: Duygu ortaklığı ve duygu kırılmasının kesişiminde Rojava

    Güncel Kalın

    E Bültene üye olun gündemden ilk siz haberdar olun.

    Siyasi Haber, “tarafsız” değil “nesnel” olmayı esas alır. Siyasi Haber, işçi ve emekçiler, kadınlar, LGBTİ+’lar, gençler, doğa ve yaşam savunucuları, ezilen etnik ve inançsal topluluklardan yanadır.

    Devletten ve sermayeden bağımsızdır.

    Facebook X (Twitter) Instagram YouTube Bluesky
    EMEK

    Akdeniz kentlerinde liman işçilerinden savaşa karşı ortak eylem kararı

    31 Ocak 2026

    Migros eyleminin ardından BİM depolarında da iş bırakma eylemleri yayılıyor

    30 Ocak 2026

    Amazon’da büyük emek kıyımı: 16 bin çalışan işten çıkarılacak

    29 Ocak 2026
    KADIN

    İzmir’de kadın Cinayetlerine karşı yürüyüş: “Koruma, aklama, yargıla”

    29 Ocak 2026

    Barışa İhtiyacım Var Kadın İnisiyatifi: Rojava’da direnen Kürt halkının ve kadınların yanındayız

    20 Ocak 2026

    Kuşadalı kadınlar barış için buluştu

    16 Ocak 2026
    © 2026 Siyasi Haber. Designed by Fikir Meclisi.

    Type above and press Enter to search. Press Esc to cancel.