Ana Sayfa Teknoloji Kuruluşunuz hangi açık kaynaklı yapay zeka modellerini kullanmalıdır? Endor Labs hepsini analiz...

Kuruluşunuz hangi açık kaynaklı yapay zeka modellerini kullanmalıdır? Endor Labs hepsini analiz ediyor

23
0

Sektör lideri yapay zeka kapsamına ilişkin en son güncellemeler ve özel içerik için günlük ve haftalık bültenlerimize katılın. Daha fazla bilgi edin


Yapay zeka gelişimi, açık kaynağın ilk vahşi batı günlerine benziyor; modeller üst üste inşa ediliyor, farklı yerlerden farklı öğelerle bir araya getiriliyor.

Açık kaynak yazılımlarda olduğu gibi bu da görünürlük ve güvenlik açısından sorunlar yaratıyor: Geliştiriciler önceden oluşturulmuş modellerin temel öğelerinin güvenilir, güvenli ve güvenilir olduğunu nasıl bilebilir?

Yazılım tedarik zinciri güvenlik şirketi, yapay zeka modellerinin daha ayrıntılı bir resmini sunmak için Endor Laboratuvarları bugün yayınlanıyor Yapay Zeka Modelleri için Endor Labs Puanları. Yeni platform şundan daha fazla puan alıyor: 900.000 açık kaynaklı yapay zeka modelleri şu anda dünyanın en popüler yapay zeka merkezlerinden biri olan Hugging Face’te mevcut.

Endor Labs’ın kurucu mühendisi George Apostolopoulos, VentureBeat’e “Kesinlikle başlangıçtayız, erken aşamalardayız” dedi. “Modellerin kara kutusu söz konusu olduğunda çok büyük bir zorluk var; İnternetten ikili kod indirmek risklidir.”

Dört kritik faktöre göre puanlama

Endor Labs’ın yeni platformu, Hugging Face’teki modelleri güvenlik, etkinlik, kalite ve popülerliğe göre puanlayan 50 kullanıma hazır ölçüm kullanıyor. Geliştiricilerin belirli modeller hakkında derinlemesine bilgiye sahip olmaları gerekmez; “Hangi modeller duyguları sınıflandırabilir?” gibi sorularla platformu yönlendirebilirler. “Meta’nın en popüler modelleri nelerdir?” veya “Popüler ses modeli nedir?”

Endor Labs’ın izniyle.

Platform daha sonra geliştiricilere modellerin ne kadar popüler ve güvenli olduğunu, ne kadar yakın zamanda oluşturulduğunu ve güncellendiğini anlatıyor.

Apostolopoulos yapay zeka modellerinde güvenliği “karmaşık ve ilginç” olarak nitelendirdi. Çok sayıda güvenlik açığı ve danger vardır ve modeller, kötü amaçlı kod enjeksiyonuna, yazım hatasına ve herhangi bir yerde tehlikeye atılmış kullanıcı kimlik bilgilerine karşı hassastır.

Apostolopoulos, “Bunlar yaygınlaştıkça, saldırganları her yerde göreceğiz” dedi. “O kadar çok saldırı vektörü var ki güven kazanmak zor. Görünürlük sağlamak önemli.”

Açık kaynak bağımlılıklarını güvence altına alma konusunda uzman olan Endor, Hugging Face verilerine ve bilinen saldırılara ilişkin literatüre dayanarak dört puanlama kategorisini geliştirdi. Şirket, bu verileri ayrıştıran, set up eden ve analiz eden LLM’leri konuşlandırdı ve şirketin yeni platformu, mannequin güncellemelerini veya değişikliklerini otomatik ve sürekli olarak tarıyor.

Apostolopoulos, Endor daha fazla veri topladıkça ek faktörlerin dikkate alınacağını söyledi. Şirket, sonunda Hugging Face’in ötesinde, OpenAI gibi ticari sağlayıcılar gibi diğer platformlara da genişleyecek.

Apostolopoulos, “Daha fazla insan kullanmaya başladıkça önem kazanan yapay zekanın yönetimi hakkında daha büyük bir hikayemiz olacak” dedi.

Yapay zeka açık kaynak geliştirmeyle benzer bir yolda ama çok daha karmaşık

Apostolopoulos, yapay zekanın gelişimi ile açık kaynaklı yazılımın (OSS) gelişimi arasında birçok paralellik olduğuna dikkat çekti. Her ikisinin de çok sayıda seçeneği ve aynı zamanda çok sayıda riski var. OSS ile yazılım paketleri, güvenlik açıklarını gizleyen dolaylı bağımlılıklar ortaya çıkarabilir.

Benzer şekilde Hugging Face’teki modellerin büyük çoğunluğu Llama veya diğer açık kaynak seçeneklerine dayanmaktadır. Apostolopoulos, “Bu yapay zeka modelleri büyük ölçüde bağımlıdır” dedi.

Yapay zeka modelleri genellikle diğer modellerin üzerine kuruludur veya aslında onların uzantılarıdır ve geliştiriciler kendi özel kullanım durumlarına göre ince ayar yapar. Bu, hem yönetilmesi hem de güvence altına alınması zor olan “karmaşık bir bağımlılık grafiği” olarak tanımladığı şeyi yaratıyor.

Apostolopoulos, “En altta bir yerde, beş katman derinliğinde bu temel modeli var” dedi. Açıklık ve şeffaflığa ulaşmak zor olabilir ve mevcut veriler karmaşık olabilir ve insanların okuyup anlaması “oldukça acı verici” olabilir. Mannequin ağırlıklarının tam olarak ne içerdiğini belirlemek zordur ve bir modelin iddia ettiği gibi olduğundan, güvenilir olduğundan, reklamı yapıldığı gibi olduğundan ve toksik içerik üretmediğinden emin olmanın litografik yolları yoktur.

Apostolopoulos, “Temel testler kolaylıkla veya kolayca yapılabilecek bir şey değil” dedi. “Gerçek şu ki, çok az ve çok parçalı bilgi var.”

Açık kaynağı indirmek kolay olsa da, aynı zamanda “son derece tehlikelidir”, zira kötü niyetli aktörler bunu kolayca tehlikeye atabilir, dedi.

Örneğin, mannequin ağırlıkları için ortak depolama formatları, rastgele kod yürütülmesine izin verebilir (Veya bir saldırgan, istediği herhangi bir komut veya koda erişim sağlayabilir ve bunları çalıştırabilir). Apostolopoulos, bunun özellikle PyTorch, Tensorflow ve Keras gibi eski formatlar üzerine kurulu modeller için tehlikeli olabileceğini açıkladı. Ayrıca modellerin dağıtılması, kötü amaçlı veya savunmasız olan (veya bağımlılıkları içe aktarmaya çalışan) başka kodların indirilmesini gerektirebilir. Ayrıca kurulum komut dosyaları veya depoları (ve bunlara verilen bağlantılar) kötü amaçlı olabilir.

Güvenliğin ötesinde çok sayıda lisanslama engeli de var: Açık kaynağa benzer şekilde modeller lisanslara tabidir, ancak modeller kendi lisanslarına sahip veri kümeleri üzerinde eğitildiğinden yapay zeka yeni zorluklar getirir. Apostolopoulos, günümüz kuruluşlarının, modellerin kullandığı fikri mülkiyetin (IP) yanı sıra telif hakkı koşullarının da farkında olması gerektiğini vurguladı.

“Önemli bir husus, bu LLM’lerin geleneksel açık kaynak bağımlılıklarından ne kadar benzer ve farklı olduğudur” dedi. Her ikisi de dış kaynaklardan yararlanırken, Yüksek Lisanslar daha güçlü, daha büyük ve ikili verilerden oluşuyor.

Açık kaynak bağımlılıkları “güncellemeler, güncellemeler ve güncellemeler” alırken, AI modelleri “oldukça statik”; güncellendiklerinde “büyük olasılıkla onlara bir daha dokunmayacaksınız” dedi Apostolopoulos.

“LLM’ler sadece bir grup rakamdan ibaret” dedi. “Değerlendirilmesi çok daha karmaşık.”


Kaynak

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz