تكنولوجيا

استقالة باحثة سابقة في OpenAI تثير جدلًا حول توجه الشركة الربحي وإدخال الإعلانات إلى ChatGPT

الشاهين الاخباري
أثارت استقالة الباحثة السابقة في OpenAI، زوي هيتزيغ، جدلًا واسعًا بعد انتقادها العلني لتحول الشركة نحو استراتيجيات الربح، معتبرة أن إدخال الإعلانات إلى النسخة المجانية من ChatGPT يمثل انحرافًا عن رسالتها الأصلية في تطوير ذكاء اصطناعي أخلاقي.

وفي مقال رأي نشرته صحيفة The New York Times، رأت هيتزيغ أن قرار إضافة الإعلانات يعكس تحولًا واضحًا في أولويات الشركة، من التركيز على البحث والتطوير الأخلاقيين إلى تعظيم الإيرادات عبر الاشتراكات والخدمات المدفوعة، وصولًا إلى الإعلانات.

وكانت OpenAI قد تأسست كمنظمة غير ربحية بهدف ضمان استفادة البشرية جمعاء من تقنيات الذكاء الاصطناعي، غير أن انتقالها إلى نموذج ربحي أثار تساؤلات متزايدة حول مدى التزامها برؤيتها الأساسية.

وتحذر هيتزيغ من أن إعطاء الأولوية لتوليد الإيرادات قد يطغى على التطوير الآمن والمسؤول للتقنيات، معتبرة أن التركيز على عوائد المستثمرين قد يأتي على حساب رفاه المجتمع والعدالة في إتاحة تقنيات الذكاء الاصطناعي.

ويمثل إدماج الإعلانات في النسخة المجانية من ChatGPT تحولًا ملحوظًا في نهج الشركة. ورغم أن هذه الخطوة قد تسهم في تغطية التكاليف المرتفعة لتشغيل النماذج اللغوية الكبيرة، فإنها تثير تحديات أخلاقية عدة، من أبرزها:

  • التأثير في سلوك المستخدمين: إذ قد تسهم الإعلانات الموجهة بصورة غير مباشرة في التأثير على قراراتهم، بما يمس حيادية المساعدة التي يقدمها الذكاء الاصطناعي.
  • استغلال البيانات الشخصية: حيث يثير استخدام البيانات في استهداف الإعلانات تساؤلات تتعلق بالخصوصية والموافقة.
  • التأثير التجاري على المحتوى: إذ قد يؤدي دمج الإعلانات إلى طمس الحدود بين المخرجات الموضوعية والمصالح التجارية، ما قد يضعف ثقة المستخدمين.

وأكدت هيتزيغ أن هذه الممارسات قد تنعكس سلبًا على ثقة الجمهور، خصوصًا في حال غياب الشفافية بشأن آليات استخدام البيانات أو تخصيص الإعلانات، مشددة على أن الشفافية تظل عنصرًا أساسيًا للحفاظ على مصداقية أنظمة الذكاء الاصطناعي.

زر الذهاب إلى الأعلى