genel-15
Önümüzdeki haftalarda değiştirilmediği takdirde Yapay Zeka Yasası, daha genel anlamda yeniliği engelleyebilir ve oyuncularını Amerikalı ve Çinliler karşısında zayıflatarak Avrupa’nın yapay zeka alanındaki egemenliğini sorgulayabilir Komisyonun kendi verilerine göre, tek bir yapay zeka tabanlı ürünü pazara sunmak, 50 çalışanı olan bir KOBİ için 300
Fransa’da başka bir lüks lobicisi olan Cédric O arabuluculuk yapıyor Yeni girenler “ avukat ordunuz yok » ancak yaptırım uygulanacaktır Yapay Zeka Yasası, risk temelli yaklaşımın ötesinde, artık bu “temel modelleri”, yani Wikipedia’nın açıkladığı gibi, çok yüksek miktarda etiketlenmemiş veriye dayanan ve genellikle kendi kendini denetleyen öğrenmeyle yönlendirilen büyük modelleri düzenlemeyi amaçlıyor Eski dijital bakan, hükümeti yapay zekaya yönelik ulusal stratejisi hakkında bilgilendirmekten sorumlu uzmanlar komitesinde yer alıyor ve bu alandaki Fransız amiral gemisi Mistral AI’ya danışmanlık yapıyor Ayrımcılık yaratması muhtemel olan işe alım, bankacılık puanlaması veya tahmine dayalı adalet konularındaki eşleştirme çözümleri yüksek risk teşkil eder ve düzenlenmelidir Genel amaçlı AI (GPAI) gibi diğer AI kategorileri kullanıcı sayısına bağlı olarak dikkate alınır
Avrupa Birliği, Dijital Piyasalar Yasası (DMA) ile yapabildiği gibi, yalnızca kullanımları düzenlemekle kalmayıp aynı zamanda ChatGPT d ‘OpenAI/Microsoft, Google’dan Bard gibi büyük dil modellerindeki (LLM) oyuncuları da düzenlemeyi planlıyor Tam tersine kötü amaçlı yazılımları yasaklıyor ve ağ sistemlerini güçlendiriyoruz (kullanımı düzenliyoruz) 000 Euro’dan fazlaya mal olacak
Genç start-up’lar için şu anda önerilen düzenlemeler lehte “Zorlu uyumluluk gereklilikleriyle yüzleşmeyi göze alabilen yerleşik şirketler “
2025 ortalarında yürürlüğe girmesi planlanan Yapay Zeka Yasasının, Avrupa Birliği’nde yapay zeka kullanımını düzenlemesi gerekiyor
Buna göre site EURACTIVüçlü, temel modellerine uygulanan kuralların “Hem yeniliği hem de güvenliği koruması gereken yapay zeka düzenlemesinin teknolojik tarafsızlığına ve risk alma yaklaşımına aykırı olacaktır
Lobi grubu için “ Riske dayalı yaklaşım yapay zeka hukukunun merkezinde kalmalıdır “ Düzenlemeyi bir kullanım durumunun risk düzeyine göre orantılamayı amaçlayan orijinal ruhundan uzak olduğunu düşünüyor
Fransa, Almanya ve İtalya pusudaMetin, üçlü yasama aşaması olarak adlandırılan nihai aşamaya girerken (AB Konseyi, Avrupa Komisyonu ve Avrupa Parlamentosu, üzerinde uzlaşılan bir sonuca ulaşmak için bir araya geliyor), bu çok düzeyli yaklaşıma hararetli bir şekilde itiraz ediliyor Aralarında Fransız Afnum’un da bulunduğu yaklaşık otuz ulusal organizasyonu bir araya getiren Dijital Avrupa, Bir deyimdüzenlemenin yeni modellerin geliştirilmesini daha başlangıç aşamasında engellediğini, ” birçoğu burada Avrupa’da doğdu “
Ciddi sonuçları olan bir hataMistral AI CEO’su Arthur Mensch, AI Yasasının mevcut versiyonuna karşı olduğunu gizlemiyor
Yüz tanımaya dayalı nüfus gözetleme cihazları gibi “kabul edilemez” risk yaratan yapay zeka modelleri açıkça yasaktır veya Meta’dan LLaMA
“Bir motoru kullanım olmadan düzenleyemeyiz, o tartışır Güçleri nedeniyle çok sayıda görevi yerine getirebilen araçlarının yüksek etkiye sahip olduğu ve potansiyel olarak sistemik riskler taşıdığı değerlendirilmektedir
Sonra ChatGPT ortaya çıktı…Geçtiğimiz yıl ChatGPT’nin ve daha genel olarak üretken yapay zekanın gelişi durumu değiştirdi
“Yüksek performanslı temel modelleri” olarak tanımlanan bu modeller, ek yükümlülüklere ve düzenli kontrollere tabi tutulabilir Üç kurucu ülke, Fransa, Almanya ve İtalya, İspanya’nın mevcut AB Konseyi başkanlığından vazgeçmesini istiyor »
Kısıtlı inovasyon argümanı teknoloji oyuncuları tarafından benimseniyor
Son olarak Digital Europe, sektördeki şirketler için uyumluluğun maliyetine dikkat çekiyor Başlangıçta proje Nisan 2021’de sunulduğunda, gelecekteki düzenlemenin temel ilkesi basitlik avantajına sahipti; çünkü yapay zekanın sağlık, güvenlik veya hukuk gibi kritik alanlardaki risk düzeylerine göre sınıflandırılmasına dayanıyordu Teknolojik açıdan tarafsız olan düzenleyici çerçeve şu hususlara odaklanmalıdır: gerçekten yüksek riskli kullanım durumlarında » ve belirli yapay zeka modellerini varsayılan olarak yüksek riskli olarak nitelendirmemek Kötü amaçlı yazılım geliştirmek için kullanılabileceği için C dilini düzenlemiyoruz