تخوف عالمي من أحدث نماذج “جوجل” للذكاء الاصطناعي.. ما السبب؟

تخوف عالمي من أحدث نماذج جوجل للذكاء الاصطناعي.. ما السبب؟

بعد أسابيع قليلة من إطلاق شركة التكنولوجيا الأمريكية العملاقة جوجل لأحدث وأقوى نماذجها في مجال الذكاء الاصطناعي، “جيميني 2.5 برو”، نشرت الشركة تقريرًا فنيًا يسلط الضوء على نتائج تقييماتها الداخلية لعوامل السلامة والأمان في هذا النموذج المتطور.

تقييمات لعوامل السلامة والأمان

يأتي هذا التقرير في سياق تزايد التدقيق العالمي حول مخاطر الذكاء الاصطناعي المتقدم، طامئنًا المستخدمين والجهات التنظيمية بشأن الجهود التي تبذلها عملاق التكنولوجيا لضمان تطوير ونشر هذه التقنية بشكل مسؤول وآمن.

وتتبع الشركة نهجًا مختلفًا في إعداد تقارير السلامة عن بعض منافسيها من شركات الذكاء الاصطناعي، حيث تنشر التقارير الفنية فقط بعد اجتياز النموذج المرحلة “التجريبية”. ولا تدرج الشركة نتائج جميع تقييماتها “للقدرات الخطرة” في هذه التقارير، بل تحتفظ بها لتدقيق منفصل.

ومع ذلك، أعرب العديد من الخبراء الذين تحدثت إليهم منصات تقنية مشهورة عن خيبة أملهم من ندرة تقرير “Gemini 2.5 Pro”، والذي أشاروا إلى أنه يفتقر إلى ذكر إطار عمل السلامة الحدودي (FSF) التابع لجوجل.

مسؤولية جوجل في الذكاء الاصطناعي

أطلقت الشركة إطار العمل هذا العام، واصفة إياه بأنه “جهد لتحديد قدرات الذكاء الاصطناعي المستقبلية التي قد تسبب أضرارًا جسيمة”. وبهذا الشأن، قال خبراء في مجال سياسات واستراتيجيات الذكاء الاصطناعي إن “التقرير مقتضب للغاية، ويحتوي على معلومات ضئيلة، وقد صدر بعد أسابيع من إتاحة النموذج للجمهور.”

وأضاف الخبراء: “من المستحيل التحقق من التزام جوجل بواجباتها العامة، وبالتالي، من المستحيل تقييم سلامة وأمن نماذجها.”

على الجانب الآخر، قال خبراء آخرون إنه على الرغم من سعادتهم بنشر الشركة تقريرًا عن Gemini 2.5 Pro، إلا أنهم غير مقتنعين بالتزام الشركة بتقديم تقييمات سلامة إضافية في الوقت المناسب.

وأشار خبراء إلى أن آخر مرة نشرت فيها جوجل نتائج اختبارات القدرات الخطيرة، كان في يونيو 2024، لنموذج أعلن عنه في فبراير من العام نفسه.

جوجل من أوائل مختبرات الذكاء الاصطناعي

وربما كانت جوجل من أوائل مختبرات الذكاء الاصطناعي التي اقترحت تقارير موحدة للنماذج، لكنها ليست الوحيدة التي اتهمت مؤخرًا بالتقصير في الشفافية.

وقد أصدرت شركات أخرى تقييمًا مشابهًا عن سلامة نماذجها، مختارة عدم نشر تقارير السلامة لبعض نماذجها الشهيرة.

تثقل كاهل جوجل الوعود التي قدمتها للجهات التنظيمية، بالحفاظ على معايير عالية لاختبارات سلامة الذكاء الاصطناعي وإعداد التقارير عنها، وهي التزامات تشير إلى وعي الشركة بمسؤوليتها نحو السلامة العامة.

الخلاصة

إن الحفاظ على سلامة وأمن نماذج الذكاء الاصطناعي يمثل تحديًا كبيرًا، وجوجل تقدم جهودًا ملموسة لتحقيق ذلك. ومع ذلك، فإن مراجعة وتقييم ترتيبات السلامة يجب أن يكونا أكثر شمولاً وشفافية لطمأنة المستخدمين والجهات التنظيمية. ندعوكم لاستكشاف خدمات شركتنا البرمجية، DMP SOFT، الرائدة في السعودية في تطوير التطبيقات والويب. نحن دائمًا هنا لتلبية احتياجاتكم البرمجية وتقديم أفضل الحلول لمشاريعكم. لا تترددوا في التواصل معنا في أي وقت.

تتعلق الكلمات الدلالية: شركات برمجة في الرياض، شركة برمجة في الرياض، شركات البرمجة في السعودية، خدمات البرمجة، رؤية 2030 الذكاء الاصطناعي.

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *