وفقًا للأنباء الواردة من IT House في 10 يونيو ، أصدرت Google بيانًا صحفيًا اليوم أعلنت فيه عن إطلاق إطار عمل آمن للذكاء الاصطناعي (SAIF) لضمان قدرة المؤسسات على نشر تقنية الذكاء الاصطناعي بشكل مسؤول ضمن إطار مفاهيمي آمن.
قالت Google إن إطار عمل SAIF يستند إلى قصص النجاح الحالية في عملية تطوير البرمجيات ، جنبًا إلى جنب مع فهم الاتجاهات الأمنية الكبرى والمخاطر الخاصة بأنظمة الذكاء الاصطناعي. يركز إطار العمل على التخفيف من المخاطر الخاصة بأنظمة الذكاء الاصطناعي مثل سرقة النماذج ، وتسمم البيانات ، والإدخال الضار ، واستخراج المعلومات السرية من بيانات التدريب. اتخذت Google عدة خطوات لدعم وتعزيز إطار عمل SAIF لاستكشاف الذكاء الاصطناعي في بيئة آمنة من خلال دمج SAIF في منتجاتها.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
أطلقت Google إطار عمل SAIF للدعوة لاستكشاف وتطوير الذكاء الاصطناعي في بيئة آمنة
وفقًا للأنباء الواردة من IT House في 10 يونيو ، أصدرت Google بيانًا صحفيًا اليوم أعلنت فيه عن إطلاق إطار عمل آمن للذكاء الاصطناعي (SAIF) لضمان قدرة المؤسسات على نشر تقنية الذكاء الاصطناعي بشكل مسؤول ضمن إطار مفاهيمي آمن.
قالت Google إن إطار عمل SAIF يستند إلى قصص النجاح الحالية في عملية تطوير البرمجيات ، جنبًا إلى جنب مع فهم الاتجاهات الأمنية الكبرى والمخاطر الخاصة بأنظمة الذكاء الاصطناعي. يركز إطار العمل على التخفيف من المخاطر الخاصة بأنظمة الذكاء الاصطناعي مثل سرقة النماذج ، وتسمم البيانات ، والإدخال الضار ، واستخراج المعلومات السرية من بيانات التدريب. اتخذت Google عدة خطوات لدعم وتعزيز إطار عمل SAIF لاستكشاف الذكاء الاصطناعي في بيئة آمنة من خلال دمج SAIF في منتجاتها.