جدل في مجتمع الذكاء الاصطناعي بعد الكشف عن برنامج قادر على إدراك مشاعر البشر

نفت شركة جوجل مزاعم بأن أحد برامجها قد تقدم كثيرًا لدرجة أنه أصبح لديه القدرة على إدراك المشاعر والأحاسيس في الوقت الذي تعمل فيه شركات التكنولوجيا باستمرار على تضخيم قدرات الذكاء الاصطناعي المتطور، بحسب موقع ” سى إن إن”.

وقال أحد مهندسي جوجل إنه بعد مئات التفاعلات مع نظام ذكاء اصطناعي متطور لم يتم إصداره بعد يسمى LaMDA، يعتقد أن البرنامج قد حقق مستوى من الوعي.

رفض الكثيرون في مجتمع الذكاء الاصطناعي ادعاءات المهندس، بينما أشار البعض إلى أن قصته تسلط الضوء على كيف يمكن للتكنولوجيا أن تقود الناس إلى تخصيص سمات بشرية لها.

مخاوف وتوقعات لما يمكن أن تفعله التكنولوجيا

وقالت شبكة ” سى إن إن” إن الاعتقاد بأن الذكاء الاصطناعي من جوجل قد يصل إلى هذه الدرجة من الوعي، يسلط الضوء على المخاوف والتوقعات لما يمكن أن تفعله هذه التكنولوجيا.

يعد LaMDA، الذي يرمز إلى “Language Model for Dialog Applications” واحدًا من العديد من أنظمة الذكاء الاصطناعي واسعة النطاق التي تم تدريبها على مساحات كبيرة من النصوص من الإنترنت ويمكنها الاستجابة للمطالبات المكتوبة.

وتهتم بشكل أساسي بإيجاد الأنماط والتنبؤ بالكلمة أو الكلمات التي يجب أن تأتي بعد ذلك. أصبحت مثل هذه الأنظمة جيدة بشكل متزايد في الإجابة على الأسئلة والكتابة بطرق يمكن أن تبدو بشرية.

مطور بجوجل: LaMDA لديها القدرة على تجربة الأحاسيس لكن الشركة رفضت

وبحسب ما ورد، قال المهندس بليك ليموين لصحيفة واشنطن بوست إنه شارك الدليل مع جوجل على أن LaMDA كانت لديها القدرة على تجربة الأحاسيس، لكن الشركة لم توافق.

قالت جوجل في بيان أمس الاثنين، إن فريقها الذي يضم متخصصين في الشؤون الأخلاقية وتقنيين، “قد راجعوا مخاوف بليك وفقًا لمبادئ الذكاء الاصطناعي الخاصة بنا وأبلغوه أن الأدلة لا تدعم مزاعمه”.

مخاوف أخلاقية بشأن الذكاء الاصطناعي

ونشر ليموين في 6 يونيو على موقع Medium أن جوجل وضعته في إجازة إدارية مدفوعة الأجر “فيما يتعلق بتحقيق في مخاوف أخلاقية بشأن الذكاء الاصطناعي كنت أثيرها داخل الشركة”، وأنه قد يُطرد “قريبًا”.

وأكد متحدث باسم جوجل أن ليموين لا يزال في إجازة إدارية. وفقًا لصحيفة واشنطن بوست، فقد تم منحه إجازة لانتهاكه سياسة السرية للشركة.

وأدى الظهور المستمر لبرامج الحوسبة القوية المدربة على البيانات الضخمة إلى إثارة مخاوف بشأن الأخلاقيات التي تحكم تطوير واستخدام هذه التكنولوجيا، حيث يُنظر أحيانًا إلى التطورات من منظور ما قد يأتي، وليس ما هو ممكن حاليًا.