تقدم Google استشارة قوية حول اللوائح التنظيمية لمنظمة العفو الدولية ، وتفتح المناقشة

مواضيع مفضلة

اعلان

نموذج الاتصال

الاسم

بريد إلكتروني *

رسالة *

الأربعاء، 11 نوفمبر 2020

تقدم Google استشارة قوية حول اللوائح التنظيمية لمنظمة العفو الدولية ، وتفتح المناقشة

 

في مواجهة التشريع الوشيك لمنظمة العفو الدولية ، فإن غوغل عازمة على ألا يكون صوتها مسموعًا فقط بل أيضًا صوت أصحاب المصلحة الآخرين في سياسة الذكاء الاصطناعي التي حددتها الشركة في مشاركة مدونة حديثة. وتقول الشركة إن المخاطر المرتبطة بالتكنولوجيا هي ببساطة أكثر مما ينبغي على بلد واحد أو شركة واحدة القيام بها بمفردها.

أصدرت شركة البحث العملاقة الخطوط العريضة للمجالات الرئيسية التي تحتاج إلى مناقشتها في هذه المسألة في ورقة بيضاء رسمية ، بالإضافة إلى بعض النصائح ضد الإفراط في التنظيم.

إن معظم سيناريوهات حالات الاستخدام الأكثر عمومية تمت تغطيتها من قبل أنظمة أخرى ، كما تزعم Google ، حيث تقدم أنظمة الأجهزة الطبية كمثال. يجب أن يتوافق الجهاز مع جميع القواعد المتعلقة بالأجهزة ، بما في ذلك القوانين مثل تلك التي تشملها HIPAA ، بصرف النظر عما إذا كانت الذخائر المكملة مشمولة أم لا. يجب تطبيق القواعد نفسها على الصناعات الأخرى أيضًا.

مفاهيم منظمة العفو الدولية التي تحتاج إلى مناقشتها ، وفقا لجوجل

يجب على المشرعين وصانعي السياسات أن يجتمعوا مع قادة الصناعة لمناقشة كيفية عمل التكنولوجيا وما هي المفاضلات ، إن وجدت ، التي يمكن إجراؤها في مواقف محددة ، كما تقول جوجل. لا يوجد حل واحد يناسب الجميع لأن التكنولوجيا متعددة الأغراض تنتقل من خلال كامل صناعة الإلكترونيات وتنتج منتجات وخدمات جديدة على طول الطريق.

أولاً ، تقول Google إنه يجب تحديد القواعد على أساس كل قطاع على حدة وفي سياق التطبيقات المختلفة للتكنولوجيا. في أي سيناريو محدد ، يجب موازنة المساءلة والشرحية في مقابل الأمن وحماية المعلومات المسجلة الملكية. يجب اختبار تجربة المستخدم مع هذه السمات.

يجب تحديد معايير قابلية الشرح من قبل الصناعة بما في ذلك الحد الأدنى من معايير الالتزام المقبولة وأفضل الممارسات مع أخذ كل المقايضات المحتملة في الاعتبار.

كما يجب أن تكون هناك أطر لضمان وجود توازن بين الأهداف المتعارضة وتعريفات "الإنصاف" ، مع توضيح الكيفية التي ينبغي بها تقييم العوامل في المواقف الافتراضية وتحديد أولوياتها.

هناك حاجة إلى إطار لضمان إيلاء الاعتبار اللازم للمسؤولية في الحالات التي لا تسير فيها تطبيقات الذكاء الاصطناعي كما هو مخطط لها أيضًا. كما هو الحال مع العديد من المجالات الأخرى لاقتراح Google ، قد تكون القواعد والتشريعات الحالية كافية لتغطية الالتزامات ، ولكن هذا مجال يحتاج إلى الكثير من التقييم للتأكد من ذلك. ترغب Google في استكشاف بدائل التأمين واللوائح ذات الصلة لضمان سد الفجوات في المسؤولية حيثما وجدت.

من ناحية أخرى ، فإن المجالات التي لم يتم تعريفها بشكل واضح حتى الآن ، تتضمن قواعد تتعلق بالسلامة وفحص كيفية تنظيم التفاعلات البشرية مع الذكاء الاصطناعي.

للسلامة ، تشير Google إلى الحاجة إلى الاجتهاد في عمليات التحقق من السلامة وتوثيق المعايير ذات الصلة بالسياق لأي صناعة معينة والتي ستستخدم فيها منظمة العفو الدولية أو يتم استخدامها. ويشمل ذلك شهادات ومواصفات الاختبارات التي لا تزال بحاجة إلى تحديدها وتعيينها ولكن الأهم من ذلك ينطبق على تطبيقات التكنولوجيا حيث يكون الحفاظ على السلامة أمرًا بالغ الأهمية.

بالرجوع إلى الأمان ، تنتهي Google من تحديد نقاطها بمناقشة حول كيفية تنظيم عمليات التعاون بين الإنسان ومنظمة العفو الدولية. يقول كلٌّ من عملاق البحث أن كل ذلك يجب أن يبدأ بمناقشة وتحديد الخطوط العريضة التي يجب أن يسمح فيها لمنظمة العفو الدولية بأتمتة النظام بالكامل أو العمل بمفرده خارج النظام. لكن المشرعين وأصحاب المصلحة في مجال السياسات يحتاجون بالإضافة إلى ذلك إلى اتخاذ قرار بشأن مجموعة متنوعة من المناهج بما في ذلك إشراف الإنسان ومراجعة الأنظمة الهامة التي تتناسب مع مجموعة واسعة من حالات الاستخدام.

الدروس المستفادة

غوغل ليست غريبة على المفاهيم المحيطة بالحاجة إلى تنظيم استخدام الذكاء الاصطناعي. في العام الماضي ، اضطرت الشركة إلى إغلاق تعاونها مع الحكومة الأمريكية في مشروع AI لطائرات بدون طيار أطلق عليه اسم Project Maven ، في أعقاب رد فعل كبير من الجمهور وموظفيها.

وجاء رد الفعل هذا بسبب المخاوف من تجسس الحكومة وعلى الرغم من حقيقة أن عملاق البحث قد عمل من أجل سياسات في أوائل عام 2018 من شأنها أن تحظر استخدام الذكاء الاصطناعي في أي شكل من أشكال الأسلحة.

ظهر مشروع Maven مرة أخرى في وقت لاحق من العام عندما أجبرت Google على المثول أمام المشرعين الأمريكيين ، حيث واجهت أسئلة حول سبب استمرارها في العمل على محرك بحث صيني. ومن شأن ذلك أن يسمح بالقيود التي تفرضها السلطات في تلك المنطقة ، مما يُظهر فعليًا أن غوغل تعمل مع الحكومة بينما ترفض العمل مع الجيش الأمريكي.

في خضم تلك الخلافات وغيرها ، كان على Google في نهاية المطاف إعادة صياغة سياساتها الخاصة لمنظمة العفو الدولية جنبًا إلى جنب مع البيانات العامة لإثبات فهمها للمخاطر - وأنها لن تسيء استخدام التكنولوجيا أو تمكّنها من استخدامها في غايات غير أخلاقية. كجزء من هذا التغيير ، نفذت Google أطر تدريب أخلاقيات AI جديدة للموظفين في كل مستوى من أعمالها.

كما لاحظت الشركة في ذلك الوقت أنها لن تبيع تقنيتها دون فهم كامل واتفاقات تضمن استخدامها بشكل أخلاقي. هذا لم يقنع الجميع ولا يمكن أن تؤدي الاقتراحات الأخيرة من الشركة إلا إلى تفاقم الأمور إذا تبين أن Google تحاول الحكم على العملية التشريعية لأي بلد أو منافسيها.

بغض النظر عن أخطاء غوغل ، فإن تاريخها مع منظمة العفو الدولية والنضال مع المعضلات الأخلاقية قد يضعها في وضع جيد لتقديم المساعدة في الجمع بين قادة الصناعة. ومن شأن ذلك أن يساعد الصناعة في توجيه قرارات السياسة للحفاظ على نهج أخلاقي تجاه الذكاء الاصطناعي دون أن تعيق المؤسسة بأكملها.

إرسال تعليق

المشاركة على واتساب متوفرة فقط في الهواتف

#zbwid-6e7fc089