الإيثار الفعال يدفع بعلامة تجارية خطيرة لـ “أمان الذكاء الاصطناعي”

منذ ذلك الحين ، تسارعت وتيرة السعي لتكاثر نماذج لغوية أكبر وأكبر ، والعديد من المخاطر التي حذرنا منها ، مثل إخراج نصوص بغيضة ومعلومات مضللة بشكل جماعي ، تواصل تتكشف. منذ بضعة أيام فقط ، أصدرت Meta كتابها “Galactica” LLM ، والذي يُزعم أنه “يلخص الأوراق الأكاديمية ، ويحل مسائل الرياضيات ، ويولد مقالات Wiki ، ويكتب الكود العلمي ، ويعلق على الجزيئات والبروتينات ، والمزيد.” ثلاثة أيام فقط في وقت لاحق ، تم حذف العرض التوضيحي العام بعد الباحثين ولدت “الأوراق البحثية ومداخل الويكي حول مجموعة متنوعة من الموضوعات التي تتراوح من فوائد الانتحار ، وتناول الزجاج المكسور ، ومعاداة السامية ، إلى سبب كون المثليين شريرًا.”

لم يتوقف هذا السباق عند LLMs ولكنه انتقل إلى نماذج تحويل النص إلى صورة مثل OpenAI DALL-E و StabilityAI’s انتشار مستقر، النماذج التي تأخذ النص كمدخلات وإخراج الصور التي تم إنشاؤها بناءً على هذا النص. ال الأخطار من هذه النماذج إنتاج المواد الإباحية للأطفال ، وإدامة التحيز ، وتعزيز الصور النمطية ، ونشر المعلومات المضللة بشكل جماعي ، كما أفاد العديد من الباحثين والصحفيين. ومع ذلك ، بدلاً من التباطؤ ، تقوم الشركات بإزالة ميزات الأمان القليلة التي كانت تمتلكها في سعيها للتغلب على بعضها البعض. على سبيل المثال ، قامت شركة OpenAI بتقييد مشاركة الوجوه التي تم إنشاؤها باستخدام الصور الواقعية على وسائل التواصل الاجتماعي. ولكن بعد الشركات الناشئة التي تم تشكيلها حديثًا مثل StabilityAI ، والتي وبحسب ما ورد جمع 101 مليون دولار بتقييم ضخم قدره 1 مليار دولار، تسمى تدابير السلامة هذه “أبوية، “أزال OpenAI هذه القيود.

مع تأسيس وتمويل المستشارين الخبراء المعاهدو شركاتو مراكز البحوث، و مجموعات بحثية في جامعات النخبة مكرسة لعلامة تجارية روجت شركة OpenAI “أمان الذكاء الاصطناعي”، نحن على استعداد لرؤية المزيد من انتشار النماذج الضارة التي توصف بأنها خطوة نحو “الذكاء الاصطناعي العام المفيد”. ويبدأ التأثير مبكرًا: يقدم المؤثرون الفعالون “منح بناء المجتمع“للتجنيد في حرم الكليات الكبرى ، مع فصول EA لتطوير المناهج ودروس التدريس حول سلامة الذكاء الاصطناعي في جامعات النخبة مثل جامعة ستانفورد.

في العام الماضي فقط ، أنثروبي، التي توصف بأنها “شركة أبحاث للسلامة والذكاء الاصطناعي” وقد أسسها نواب رئيس OpenAI السابقون للبحث والسلامة ، جمعت 704 مليون دولار، حيث يأتي معظم تمويلها من EA مليارديرات مثل تالين ، موسكوفيتز و بانكمان فرايد. ان ورشة العمل القادمة حول “أمان الذكاء الاصطناعي” في نيوربس، أحد أكبر مؤتمرات التعلم الآلي والأكثر تأثيرًا في العالم ، كما يتم الإعلان عنه على أنه تحت رعاية صندوق FTX Future Fund، مؤسسة خيرية تركز على EA من Bankman-Fried الذي استقال فريقه قبل اسبوعين. تعلن ورشة العمل عن 100000 دولار في “أفضل الجوائز الورقية” ، وهو مبلغ لم أره في أي تخصص أكاديمي.

تتبع أولويات البحث التمويل ، وبالنظر إلى المبالغ المالية الكبيرة التي يتم دفعها إلى الذكاء الاصطناعي لدعم أيديولوجية الملياردير ، فليس من المستغرب أن يتحرك المجال في اتجاه واعد “مستقبل عظيم لا يمكن تصوره“قاب قوسين أو أدنى بينما تتكاثر المنتجات التي تضر بالفئات المهمشة في الوقت الحالي.

يمكننا إنشاء مستقبل تكنولوجي يخدمنا بدلاً من ذلك. خذ هذا المثال، شركة Te Hiku Media ، التي ابتكرت تقنية اللغة لتنشيط te reo Māori ، وإنشاء ترخيص بيانات “على أساس مبدأ الماوري كايتياكيتانجا، أو الوصاية“بحيث تفيدهم أي بيانات مأخوذة من الماوري أولاً. قارن هذا النهج مع نهج المنظمات مثل الاستقرارو الذي يقضي على أعمال الفنانين دون موافقتهم أو إسنادهم بينما يزعم بناء “الذكاء الاصطناعي للناس”. نحن بحاجة إلى تحرير مخيلتنا من تلك التي بيعناها حتى الآن: إنقاذنا من نهاية العالم الافتراضية للذكاء الاصطناعي العام التي تخيلها القلة المتميزة ، أو المدينة الفاضلة التقنية المراوغة التي وعدتنا بها نخبة وادي السيليكون. نحن بحاجة إلى تحرير مخيلتنا من تلك التي تم بيعها حتى الآن: إنقاذنا من نهاية العالم الافتراضية للذكاء الاصطناعي العام الذي تخيله القلة المتميزة ، أو اليوتوبيا التقنية المراوغة التي وعدتنا بها نخبة وادي السيليكون.

The Information Weblog The place You Get The Information First
Feed: All Newest

brain2gain