أفادت تقارير بأن شركة “OpenAI” التي أنتجت روبوت الدردشة الشهير “ChatGPT”، تدرك المخاطر الكبيرة الناجمة عن بناء نظام ذكاء اصطناعي عام “AGI”، لكنها تتجاهلها.

ويعد “AGI” نوعا افتراضيا من الذكاء الاصطناعي، يتميز بالقدرة على الفهم والتفكير من خلال مجموعة واسعة من المهام، وهي تكنولوجيا ستحاكي أو تتنبأ بالسلوك البشري، وتظهر القدرة على التعلم والتفكير.

وقال الباحث دانييل كوكوتايلو، الذي ترك فريق الحوكمة في “Open AI” في أبريل الماضي، في مقابلة مع “نيويورك تايمز”، إن احتمال تدمير “الذكاء الاصطناعي المتقدم” للبشرية يبلغ حوالي 70%، لكن الفريق المطور (مقره في سان فرانسيسكو) يمضي قدما في ذلك بغض النظر.

وأضاف أن شركة “OpenAI” متحمسة حقا لبناء الذكاء الاصطناعي العام، وتسعى لتكون الأولى في هذا المجال، مشيرا إلى تكليفه بعد انضمامه إلى الشركة قبل عامين، بالتنبؤ بتقدم التكنولوجيا، وأنه توصل إلى استنتاج مفاده أن الصناعة لن تقوم بتطوير الذكاء الاصطناعي العام بحلول عام 2027 فحسب، بل هناك فرصة قوية لأن تؤدي هذه التكنولوجيا إلى إلحاق ضرر كارثي بالبشرية أو حتى تدميرها.

وأفاد كوكوتايلو بأنه أخبر الرئيس التنفيذي لـ”OpenAI”، سام ألتمان، أن الشركة يجب أن “تركز على السلامة” وتنفق المزيد من الوقت والموارد على مواجهة المخاطر التي يشكلها الذكاء الاصطناعي بدلا من الاستمرار في جعله أكثر ذكاء، وقال إن ألتمان اتفق معه، لكن شيئا لم يتغير منذ ذلك الحين.

ويعد كوكوتايلو جزءا من مجموعة من المطلعين على “OpenAI”، الذين أصدروا مؤخرا رسالة مفتوحة تحث مطوري الذكاء الاصطناعي على تحقيق قدر أكبر من الشفافية والمزيد من الحماية للمبلغين عن المخالفات.

ودافعت “OpenAI” عن سجل السلامة الخاص بها وسط انتقادات الموظفين والتدقيق العام، قائلة إنها فخورة بسجلها الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر كفاءة وأمانا، وإنها تؤمن بنهجها العلمي لمعالجة المخاطر.