كشفت شركة مايكروسوفت عن تصميمها العديد من مزايا الأمان الجديدة التي من السهل استخدامها لعملاء خدمة الحوسبة السحابية أزور – Azure الذين لا يختبرون خدمات الذكاء الاصطناعي التي بنوها.
وقالت سارة بيرد، كبيرة مسؤولي منتجات الذكاء الاصطناعي في مايكروسوفت: “إن هذه الأدوات العاملة بالنماذج اللغوية الكبيرة يمكنها اكتشاف نقاط الضعف المحتملة، ومراقبة الهلوسة المقبولة، وحظر المطالبات الضارة في الوقت الفعلي لعملاء Azure AI الذين يعملون مع أي نموذج مستضاف عبر المنصة”.
وأضافت أن تلك الأدوات “تساعد في تجنب الخلافات بخصوص الذكاء الاصطناعي التوليدي الناجمة عن الاستجابات غير المرغوب فيها أو غير المقصودة، مثل الاستجابات التي تتضمن صورا مزيفة صريحة للمشاهير، أو الصور غير الدقيقة تاريخيا”.
وأشارت بيرد إلى أنه يمكن لمستخدمي Azure في المستقبل الحصول على تقرير بالمستخدمين الذين يحاولون تشغيل مخرجات غير آمنة، لافتة إلى أن أدوات الأمان ترتبط مباشرة بالنموذج اللغوي الكبير للذكاء الاصطناعي التوليدي تشات جي بي تي 4 – GPT-4، والنماذج الشائعة الأخرى، مثل Llama 2.
وأوضحت بيرد إلى أن شركة مايكروسوفت تتجه إلى الذكاء الاصطناعي لتعزيز سلامة وأمان برامجها، وخاصة مع تزايد اهتمام العملاء باستخدام Azure للوصول إلى نماذج الذكاء الاصطناعي.