الجمعة 19 ابريل 2024
الرئيسية - علوم وتكنولوجيا - ما الذي يحدث عندما تتخلى غوغل عن "أخلاقياتها"؟
ما الذي يحدث عندما تتخلى غوغل عن "أخلاقياتها"؟
الساعة 08:30 مساءً (متابعات)

قال باحثون في سويسرا يعملون في هذا القطاع إن عمالقة التكنولوجيا مثل غوغل ليسوا على دراية كاملة بقوة أدوات الذكاء الإصطناعي التي يقومون ببنائها.

ويثير طرد خبيرة رفيعة المستوى في المجال الأخلاقي مؤخرا من شركة غوغل تساؤلات حول ما إذا احترام القواعد الأخلاقية المحيطة بالذكاء الاصطناعي هي حقا من بين أولويات عمالقة التكنولوجيا.



"الخوارزميات التي نعمل عليها هي مسألة تتعلق بالمصلحة العامة، وليست لأغراض شخصية"، هذا ما قاله المهدي المحمدي، الموظّف الوحيد في مشروع " Google Brain" في أوروبا، والذي يعمل ضمن فريق أخلاقيات الذكاء الاصطناعي عبر حسابه على تويتررابط خارجي حول الفصل المتسرّع لمديرته تيمنت غيبرو من وظيفتها في ديسمبر 2020. والهدف من مشروع " Google Brain" هو تكرار عمل الدماغ البشري الطبيعي باستخدام أنظمة التعلّم العميق.

وتعتبر غيبرو من أبرع الباحثين في مجال أخلاقيات الذكاء الإصطناعي. وفي مقالرابط خارجي كتبته مع زملاء آخرين لها، حذّرت من المخاطر الأخلاقية للنماذج اللغوية الكبيرة التي تشكل أساس عمل محرّك بحث غوغل وأعماله. وأشارت هذه الخبيرة إلى أن هذه النماذج تحلل كميات هائلة من النصوص على الإنترنت، ومعظمها قادم من العالم الغربي. وينطوي هذا التحيّز الجغرافي، من بين أمور أخرى، على خطر أن تنتقل اللغة العنصرية والمتحيّزة جنسيا والمسيئة من الويب إلى بيانات غوغل، وهكذا يُعاد انتاجها بواسطة نظام الذكاء الاصطناعي. وكان رد فعل غوغل هو توجيه طلب إلى غيبرو بسحب دراستها. وعندما رفضت ذلك، فصلوها من العمل.


كذلك اكتشف باحثون آخرون أيضا التطوّر غير المنضبط لأنظمة الذكاء الاصطناعي وأبرزوا مخاطر ذلك. ويقول ألكسندر كالوسيس، أستاذ التنقيب في البيانات والتعلّم الآلي في جامعة العلوم التطبيقية الواقعة غرب سويسرا إن هناك "فيل في الغرفة": "الذكاء الاصطناعي موجود في كل مكان ويتطوّر بوتيرة سريعة، ومع ذلك غالبا ما يكون مطوّرو أدوات الذكاء الأصطناعي والنماذج غير مدركين حقا كيف ستتصرف هذه الأدوات عندما يتم استخدامها في اعدادات العالم الواقعي المعقّدة"، كما يحذّر بأن "إدراك العواقب يأتي متأخرا، هذا إذا حدث فعلا".

وتقول آنا جوبين، الباحثة في معهد هومبولت للإنترنت والمجتمع في برلين وخبيرة في أخلاقيات التكنولوجيا الجديدة: "إذا تعاملوا مع متخصصة معترف بها في مجال أخلاقيات الذكاء الاصطناعي بهذه الطريقة، فكيف يمكن لغوغل أن تأمل في أن تصبح أكثر أخلاقية؟".

"غسيل- الاخلاقيات"
كانت غيبرو رمزًا لجيل جديد من القيادات النسائية ومن السود في عالم التكنولوجيا، حيث يهيمن الرجال البيض على قوتها العاملة. وجنبا إلى جنب مع زميلتها مارغريت ميشال، التي تم فصلها هي الأخرى من الشركة في شهر فبراير، قامت غيبرو بتكوين فريق متعدد الثقافات للبحث وتعزيز البعد الأخلاقي المتكامل في أنظمة الذكاء الاصطناعي داخل شركة غوغل.

علاقة غوغل المثيرة للجدل بالاخلاق
لكن جوبين تقول إنه ما لم يتم التعامل مع المشكلة بشكل صحيح، وتمكين مثل هذه الفرق من التصرف وفقًا لنتائج أبحاثهم ، يمكن أن يتحوّل  الذكاء الاصطناعي الأخلاقي إلى "قوة غير أخلاقية"، عبارة عن علامة تجميلية بحتة لإخفاء التعطش للأعمال التجارية التي هي في الواقع في صراع مفتوح مع المبادئ الأخلاقية.

كما هو الحال مع "الغسيل الأخضر"، حيث تروج الشركات للسياسات البيئية ولكن لا تتصرف وفقًا لها، يمكن للمرء أن يتحدث عن "غسيل الأخلاقيات" - أي ، سد النوافذ التي يتسرّب منها النقد الأخلاقي، توضح جوبين: "كمن يقول: نحن أخلاقيون، لذا توقفوا عن مضايقتنا".

ويتساءل بوراك أمير، كبير الموظفين ومهندس برمجيات عمل في مقر شركة غوغل بزيورخ لمدة 13 عامًا ، عن الغرض من وراء أبحاث الشركة الأخلاقية بعد إقالة غيبرو.

"لماذا لدينا قسم للأخلاقيات إذا كان بإمكانك كتابة كلمات لطيفة فقط؟" يتساءل المهندس. "إذا كان الهدف هو نشر بحث لطيف وإظهار حسن النية فقط، فلا داعي للقول إنه يتم لزيادة المعرفة. نحن بحاجة إلى مزيد من الشفافية."

وقد أعرب العديد من العلماء والباحثين عن تضامنهم مع غيبرو، بما في ذلك بعض الذين يعيشون ويعملون في سويسرا. وللتذكير يقع أكبر مركز أبحاث لشركة غوغل خارج الولايات المتحدة في زيورخ.

ويركز هذا المركز، من بين أمور أخرى، على التعلم الآلي والذكاء الاصطناعي. أمير هو واحد من أكثر من 2600 من موظفي الشركة الذين وقّعوا عريضة لدعم  غيبرو وشككوا في نهج الشركة تجاه أخلاقيات الذكاء الاصطناعي رابط خارجي.
نفت شركة غوغل كونها قامت "بإقصاء" غيبرو، في ردّ تلقته  SWI swissinfo.ch بعد طلبها توضيح من الشركة في زيورخ، وأحالنا مكتب الاتصالات التابع لها إلى البيانات الرسمية التي أدلى بها مسبقًا المسؤولون التنفيذيون في  الشركة.  أحد هذه التصريحاترابط خارجي كان من قبل جيف دين، رئيس قسم الذكاء الاصطناعي، الذي قال إن البحث الذي وقّعت عليه غيبرو لم يستوفِ معايير النشر، وأن الشركة لم تطردها، لكنها قبلت استقالتها (التي تقول غيبرو إنها لم تقدمها أبدًا. ).

بالنسبة لروبرتا فيشلي، الباحثة في جامعة سانت غالن، والتي وقعت أيضًا على العريضة التي تدعم غيبرو، تقول إن صورة شركة غوغل في مجتمع الأخلاقيات والذكاء الاصطناعي قد تأثرت سلبا منذ طردت باحثة الأخلاقيات. وتعتقد فيشلي أن تضارب المصالح أمر لا مفر منه عند إجراء بحث يطرح تساؤلات حول الممارسات الحالية داخل الشركة، لذلك كان هناك بعض المخاطر التي ينطوي عليها منذ البداية.

وتضيف الباحثة: "من الناحية النظرية، تحب ترغب الشركات في وجود باحثين نقديين. ولكن من الناحية العملية، يؤدي ذلك عن غير قصد إلى تضارب المصالح إذا بدأ الباحثون في انتقاد صاحب العمل".

تلاحظ فيشلي أن الباحثين الذين يسعون إلى القيام بعمل رائد في أخلاقيات الذكاء الاصطناعي غالبًا ما لا يكون لديهم الكثير من الخيارات، وينتهي بهم الأمر في الشركات الخاصة لأن هذا هو المكان الذي تتركز فيه معظم الموارد. "لذا فهم يحاولون فهم آليات معينة بشكل أفضل وتغيير الأشياء من الداخل، وهو أمر لا تٌحمد عقباه دائما".


واصل عملاق الويب القيام بأعمال تجارية على ما يبدو دون عائق بعد طرد غيبرو، لكن رمال ما قد تحركت. فقد شكلت مجموعة من موظفي الشركة في الولايات المتحدة في يناير أول نقابة في التاريخ داخل شركة تكنولوجية كبيرة متعددة الجنسيات، وهي نقابة عمال الأبجديةرابط خارجي. بعد ذلك، شكل موظفو غوغل حول العالم تحالفًا نقابيًا عالميًا في 10 دول، بما في ذلك المملكة المتحدة وسويسرا.

"فيل في الغرفة"
لكن تأثير غوغل وما يسمى بمجموعة (GAFA) اختصارا للأحرف الأولى من أسماء شركات غوغل وآمازون وفيسبوك وآبل يمتد إلى ما هو أبعد من حدود مكاتب الشركات. إن ما يفعله هؤلاء العمالقة في مجال التكنولوجيا وما يخططون له يفرض أيضًا جدول أعمال البحث الأكاديمي العالمي.

يقول ألكسندر كالوسيس من جامعة العلوم التطبيقية في غرب سويسرا: "من الصعب العثور على بحث في المؤسسات الأكاديمية والبحثية الكبيرة لا ترتبط، أو ربما ليس مموّلا من قبل شركات التكنولوجيا الكبرى."

بالنظر إلى هذا التأثير، يجد أنه من الأهمية بمكان أن يكون لديك أصوات مستقلة "خارجة عن المألوف" تسلط الضوء على مخاطر الاستغلال غير المنضبط للبيانات من قبل عمالقة التكنولوجيا.

ويضيف الباحث السويسري: "هذه هي المشكلة الكبرى في مجتمعنا. يمكن أن تكون المناقشات حول الأخلاق في بعض الأحيان مصدر إلهاء" عن هذه السيطرة المفروضة من قبل شركات التكنولوجيا الكبرى.


آخر الأخبار