الذكاء الاصطناعي المسؤول: تقرير 2024 وجهودنا المستمرة
طرحنا قبل عامَين رؤيتنا حول النهوض بالذكاء الاصطناعي لخدمة المجتمع وتحفيز الابتكار. ومنذ أسابيع قليلة، شاركنا تقرير العام 2024 لإنجازاتنا الكبيرة نحو تحقيق تلك الرؤية، بدءًا من نماذج فائقة التطوّر تعزّز القدرات الإبداعية وصولاً إلى اكتشافات رائدة بفضل الذكاء الاصطناعي في مجالات علم الأحياء والأبحاث الصحية وعلم الأعصاب.
إنّ التحلي بالجرأة في عالم الذكاء الاصطناعي يستلزم أيضًا تحمّل المسؤولية منذ البداية. لهذا السبب، يرتكز نهجنا في هذا المجال على فهم التأثير الواسع للذكاء الاصطناعي على الأفراد ومعالجته. فقد كنّا من أوائل الشركات التي وضعت مبادئ الذكاء الاصطناعي في العام 2018، ولا نزال نلتزم بإصدار تقرير الشفافية سنويًا منذ العام 2019. هذا بالإضافة إلى مراجعة سياساتنا وممارساتنا وأطر عملنا بشكل دوري، وتعديلها عند الضرورة.
تقرير تقدّم الذكاء الاصطناعي المسؤول للعام 2024
يفصّل تقريرنا السنوي السادس عن التقدّم في مجال الذكاء الاصطناعي المسؤول جهودنا في الإشراف على مخاطر الذكاء الاصطناعي وتقييمها وقياسها وإدارتها خلال جميع مراحل تطويره. يسلّط التقرير الضوء أيضًا على ما حققناه من تقدّم خلال العام الماضي في وضع أطر حوكمة متينة لإطلاق منتجات الذكاء الاصطناعي.
تتمحور استثماراتنا اليوم، أكثر من أي وقت مضى، حول أبحاث ومنتجات الذكاء الاصطناعي التي تساهم في خدمة المجتمع والأفراد، وكذلك حول سلامة الذكاء الاصطناعي والجهود اللازمة لتحديد المخاطر المحتملة ومعالجتها.
يتضمّن تقرير العام الماضي ملخصات لبعض من أكثر من 300 ورقة بحثية نشرتها فرق عملنا حول المسؤولية والسلامة، والتعديلات التي أُجريَت على سياساتنا ومبادئنا وأطر عملنا في مجال الذكاء الاصطناعي، بالإضافة إلى استنتاجاتنا الرئيسية من اختبارات الفريق الأحمر والتقييمات المستندة إلى معايير السلامة والخصوصية والأمان. يوضّح التقرير أيضًا التقدّم الذي أحرزناه في الحد من المخاطر عند إطلاق نماذج الذكاء الاصطناعي التوليدي المختلفة، بما في ذلك تحسين أدوات السلامة والفلاتر، وضوابط الأمان والخصوصية، واستخدام التكنولوجيا المصدر في منتجاتنا، وتعزيز التوعية الشاملة بمجال الذكاء الاصطناعي. تركّزت جهودنا في العام 2024 أيضًا على دعم قطاع الذكاء الاصطناعي من خلال التمويل وتوفير الأدوات اللازمة ووضع المعايير ذات الصلة، كما هو موضّح في التقرير.
تعديلات على إطار عملنا حول سلامة الذكاء الاصطناعي الحدودي
كلما تطوّر الذكاء الاصطناعي وزادت إمكاناته، ظهرت مخاطر جديدة له أيضًا. لذا، أطلقنا في العام الماضي النسخة الأولى من "إطار عمل السلامة الحدودية"، وهو عبارة عن مجموعة من البروتوكولات التي تساعدنا في استباق المخاطر المحتملة لنماذج الذكاء الاصطناعي الحدودي المتطوّرة. ومنذ ذلك الحين، عملنا مع خبراء في المجال ومن الأوساط الأكاديمية والجهات الحكومية لتحديد هذه المخاطر والأساليب التجريبية لاختبارها والاستراتيجيات المتاحة للتخفيف منها.
عمدنا أيضًا على تطبيق إطار العمل هذا في إجراءات السلامة والحوكمة المعتمدة لدى Google DeepMind لتقييم نماذج الذكاء الاصطناعي الحدودي، مثل Gemini 2.0. ننشر اليوم النسخة المحدّثة من إطار عمل السلامة الحدودية، والتي تتضمّن ما يلي:
- مقترحات لتعزيز الأمان: المساعدة في تحديد الجوانب التي تتطلّب أقصى درجات الحماية لمنع تسرّب البيانات
- تدابير وقائية أثناء النشر: التركيز على منع إساءة استخدام القدرات المهمّة في الأنظمة التي ننشرها
- خطر المحاذاة الخادعة: التصدّي لاحتمالية سعي الأنظمة المستقلة عمدًا لتقويض سيطرة الإنسان عليها
يتوفّر المزيد من المعلومات في مدوّنة Google DeepMind.
تحديث مبادئ الذكاء الاصطناعي
منذ أن أطلقنا مبادئنا للذكاء الاصطناعي في العام 2018، شهدت هذه التكنولوجيا تطوّرات هائلة حيث يستخدمها مليارات الأفراد حاليًا في حياتهم اليومية، وأصبحت من التقنيات العامة المتاحة للجميع ومنصة تستفيد منها المؤسسات والأفراد لتطوير التطبيقات. لم يعد الذكاء الاصطناعي مجرد موضوع بحثي يتناوله الخبراء، بل أصبح تكنولوجيا واسعة الانتشار كالهواتف الجوّالة والإنترنت، له فوائد عديدة للمجتمع والأفراد والعالم ككل، وتدعمه منظومة حيوية من مطوّري الذكاء الاصطناعي المحترفين.
إنّ وضع مبادئ أساسية مشتركة يعدّ جزءًا مهمًا من هذا التطوّر. فمع تزايد انتشار الشركات والمؤسسات الأكاديمية المختصة بالذكاء الاصطناعي، لا بد من الإشادة بالتقدّم الملحوظ في صياغة مبادئ الذكاء الاصطناعي على الصعيد العالمي. فقد نشرت كل من مجموعة الدول الصناعية السبع (G7) والمنظمة الدولية للمعايير، بالإضافة إلى دول ديمقراطية منفردة، أطرًا إرشادية حول التطوير الآمن والاستخدام السليم للذكاء الاصطناعي. فقد بات بإمكان المؤسسات والجهات الحكومية الاستناد بشكل أكبر إلى هذه المعايير المشتركة عند بحثها عن أفضل السبل لبناء هذه التكنولوجيا وتنظيمها ونشرها. على سبيل المثال، يعتمد تقريرنا حول تقدّم الذكاء الاصطناعي المسؤول الآن على إطار عمل إدارة المخاطر التابع للمعهد الوطني الأمريكي للمعايير والتكنولوجيا (NIST). يمكننا القول إنّنا نفهم إمكانات الذكاء الاصطناعي ومخاطره بشكل أعمق اليوم، بفضل تجاربنا وأبحاثنا في السنوات الأخيرة وبالاستفادة من ما نعرفه عن التهديدات وأفضل الممارسات والخبرات التي شاركناها مع مؤسسات أخرى في مجال الذكاء الاصطناعي.
يشهد العالم منافسةً قويةً على قيادة الذكاء الاصطناعي، ضمن بيئة جيوسياسة بالغة التعقيد. نحن نرى أنّه على الدول الديمقراطية تولّي زمام المبادرة في تطوير الذكاء الاصطناعي بالاستناد إلى قيم جوهرية كالحرية والمساواة واحترام حقوق الإنسان. ونؤمن أيضًا بضرورة تعاون الشركات والحكومات والمؤسسات التي تتبّنى هذه القيم من أجل تطوير ذكاء اصطناعي قادر على حماية الأفراد وتعزيز النمو العالمي ودعم الأمن القومي.
على هذه الخلفية، نعمل حاليًا على تحديث مبادئنا للذكاء الاصطناعي بحيث تركّز على ثلاثة محاور أساسية:
- الجرأة في الابتكار: نطوّر الذكاء الاصطناعي لمساعدة الأفراد وتمكينهم وإلهامهم في مختلف المجالات التي تهمّهم، وكذلك لدفع عجلة النمو الاقتصادي وتحسين جودة الحياة وتحقيق الاكتشافات العلمية والمساهمة في التصدي لأكبر التحديات التي تواجه الإنسان.
- المسؤولية في التطوير والنشر: إدراكًا منّا للتحديات والمخاطر الجديدة التي يطرحها الذكاء الاصطناعي باعتباره تكنولوجيا تحويلية لا تزال قيد التطوير، إنّنا نولي أهمية قصوى لتطويره ونشره بمسؤولية، بدءًا من مراحل التصميم والاختبار وصولاً إلى مراحل النشر والتكرار. وكلما تطوّر الذكاء الاصطناعي وتوسّعت استخداماته، تعلّمنا المزيد وطبّقناه.
- التعاون معًا نحو الأفضل: نتعلّم من خبرات الآخرين ونحرص على تطوير تكنولوجيا تتيح لهم الاستفادة من الذكاء الاصطناعي على نحو بنّاء.
يمكن الاطّلاع على مبادئنا الكاملة للذكاء الاصطناعي على AI.google
سنواصل التركيز على أبحاث وتطبيقات الذكاء الاصطناعي استنادًا إلى مبادئنا في المجال وتماشيًا مع مهمتنا الرئيسية ومجالات تركيزنا العلمي وخبراتنا، مع الحرص على الامتثال لمبادئ القانون الدولي وحقوق الإنسان المتعارف عليها عالميًا. وعند تقييم كل عمل على حدة، سنُجري دومًا دراسة دقيقة للتأكّد من أنّ منافعه تفوق مخاطره المحتملة بشكل كبير. سنأخذ في الاعتبار أيضًا ما إذا كانت مشاريعنا تتطلّب إجراء أبحاث وتطويرات متخصّصة أم تعتمد على تكنولوجيات عامة ومتاحة للجميع. لهذه التقييمات أهمية بالغة بالنظر إلى مشاركة العديد من المؤسسات والحكومات اليوم في تطوير الذكاء الاصطناعي لاستخدامه في مجالات متنوّعة كالرعاية الصحية والعلوم والروبوتات والأمن السيبراني والنقل والأمن القومي والطاقة والمناخ وغيرها.
إلى جانب مبادئنا للذكاء الاصطناعي، لدينا بالطبع سياسات مفصّلة وشروط استخدام خاصة بالمنتجات تتضمّن قيودًا تحظر الاستخدام غير القانوني لخدماتنا مثلاً.
مستقبل واعد
بالنظر إلى التطوّر المتسارع للتكنولوجيا من حولنا وما يصاحبه من نقاشات حول مسار الذكاء الاصطناعي وانتشاره واستخداماته، سنواصل التزامنا بالتكيّف مع هذه التطورات وتعديل آلية عملنا بالتوازي مع ما نكسبه من معرفة وخبرة بمرور الوقت.
مع تزايد اتّضاح الصورة حول الذكاء العام الاصطناعي (AGI) بشكل خاص، تتّضح أيضًا الآثار المجتمعية العميقة المترتبة عليه. لا تقتصر المسألة على تطوير ذكاء اصطناعي فائق فحسب، بل تتعلّق أيضًا ببناء التكنولوجيا التحويلية الأقوى في تاريخ البشرية وتسخيرها لمعالجة أكبر التحديات التي تواجه الإنسان، مع ضمان وضع آليات الحماية والحوكمة المناسبة، بما يخدم مصلحة العالم ككل. سنشارككم ما نحرزه من تقدّم ونتائج في هذه الرحلة، وسنواصل بلا شك تطوير أُطر تفكيرنا مع اقتربنا أكثر فأكثر من الوصول إلى الذكاء العام الاصطناعي.
\
بينما نمضي قدمًا، لا بد من النظر إلى التحسينات التي أجريناها خلال العام الماضي على مستوى الحوكمة وعملياتنا الأخرى وإطلاق "إطار عمل السلامة الحدودية" وتحديث "مبادئ الذكاء الاصطناعي"، ما يشكّل بنية قوية لنا للانتقال إلى المرحلة التالية من رحلة التحوّل في الذكاء الاصطناعي. ويبقى الدافع الأكبر وراء جهودنا في هذا المجال هو معرفة الإمكانات الهائلة للذكاء الاصطناعي في تحسين حياة الأفراد حول العالم. ونؤّكد التزامنا بمواصلة نهجنا القائم على الجرأة والمسؤولية والتعاون في مجال الذكاء الاصطناعي.