Ana Sayfa Teknoloji Şaşkınlığa Karşı Açılan Bir Dava Sahte Haber Halüsinasyonlarını Ortaya Çıkardı

Şaşkınlığa Karşı Açılan Bir Dava Sahte Haber Halüsinasyonlarını Ortaya Çıkardı

35
0

Şaşkınlık yorum taleplerine yanıt vermedi.

WIRED’e e-postayla gönderilen bir açıklamada Information Corp genel müdürü Robert Thomson, Perplexity’yi olumsuz bir şekilde OpenAI ile karşılaştırdı. Açıklamada, “Yapay Zekanın potansiyelini hayata geçirmek istiyorsak dürüstlük ve yaratıcılığın şart olduğunu anlayan OpenAI gibi ilkeli şirketleri alkışlıyoruz” deniyor. “Fikri mülkiyeti kötüye kullanan tek yapay zeka şirketi Perplexity değil ve kararlılıkla takip edeceğimiz tek yapay zeka şirketi de değil. Dava açmak yerine kur yapmayı tercih ettiğimizi açıkça belirttik ancak gazetecilerimiz, yazarlarımız ve şirketimiz adına içerik kleptokrasisine meydan okumalıyız.”

Ancak OpenAI, ticari markanın sulandırılmasıyla ilgili kendi suçlamalarıyla karşı karşıya. içinde New York Occasions ve OpenAIOccasions iddialar ChatGPT ve Bing Chat, Occasions’a uydurma alıntılar atfedecek ve OpenAI ile Microsoft’u ticari markayı sulandırma yoluyla itibarına zarar vermekle suçlayacak. Davada alıntılanan bir örnekte Occasions, Bing Chat’in Occasions’ın kırmızı şarabı (ölçülü olarak) “kalp-sağlıklı” bir yiyecek olarak adlandırdığını iddia ettiğini, oysa aslında öyle olmadığını iddia ediyor; Occasions, gerçek haberlerinin ölçülü içki içmenin sağlığa yararlı olduğu yönündeki iddiaları çürüttüğünü ileri sürüyor.

NYT dış iletişim direktörü Charlie Stadtlander, “İkame edici, ticari üretken yapay zeka ürünlerini çalıştırmak için haber makalelerinin kopyalanması, Perplexity’ye mektuplarımızda ve Microsoft ile OpenAI’ye karşı açtığımız davada açıkça belirttiğimiz gibi yasa dışıdır” diyor. “Dow Jones’un bu davasını alkışlıyoruz” ve New York Submit, yayıncı içeriğinin bu tür kötüye kullanıma karşı korunmasını sağlama yolunda önemli bir adımdır.”

Emory Üniversitesi’nde hukuk ve yapay zeka profesörü Matthew Sag’a göre yayıncılar, halüsinasyonların ticari marka yasasını ihlal edebileceğini iddia etmekte galip gelirse, yapay zeka şirketleri “çok büyük zorluklarla” karşı karşıya kalabilir.

Sag, “Bir dil modelinin halüsinasyon görmeyeceğini garanti etmek kesinlikle imkansızdır” diyor. Ona göre, dil modellerinin, komutlara yanıt olarak kulağa doğru gelen kelimeleri tahmin ederek işleme şekli her zaman bir tür halüsinasyondur; bazen kulağa diğerlerinden daha makul gelir.

“Gerçekliğimizle örtüşmüyorsa buna halüsinasyon diyoruz ancak sonuç hoşumuza gitse de gitmese de süreç tamamen aynı.”

Kaynak

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz