تابع تفاصيل كيف نقلق بذكاء من “الذكاء الاصطناعيّ”؟ وقد تم طرح الخبر عبر عرب 48 .. تابع كيف نقلق بذكاء من “الذكاء الاصطناعيّ”؟
والتفاصيل عبر الوطن #كيف #نقلق #بذكاء #من #الذكاء #الاصطناعي

[ad_1]

أثار التسارع الأخير في كل من قوة ووضوح أنظمة الذكاء الاصطناعي ، والوعي المتزايد بنقاط قوتها وعيوبها ، مخاوف من أن التكنولوجيا تتحرك الآن بسرعة كبيرة بحيث لا يمكن التحكم فيها بأمان. ومن هنا جاءت الدعوة للتوقف

“هل يجب علينا أتمتة جميع الوظائف ، بما في ذلك تلك التي ترضينا؟ هل يجب أن نطور عقولًا غير بشرية قد تفوقنا عددًا في النهاية وتتفوق علينا … وتحل محلنا؟ هل يجب أن نجازف بفقدان السيطرة على ثقافتنا؟” أثيرت هذه الأسئلة الشهر الماضي في رسالة مفتوحة من معهد مستقبل الحياة (منظمة غير حكومية). ودعت إلى “وقفة” مدتها ستة أشهر في إنشاء أكثر أشكال الذكاء الاصطناعي تقدمًا ووقعتها شخصيات بارزة في مجال التكنولوجيا ، بما في ذلك إيلون ماسك. إنه المثال الأكثر وضوحا حتى الآن على كيف أدى التقدم السريع للذكاء الاصطناعي إلى إثارة القلق بشأن الأخطار المحتملة للتكنولوجيا.

لقد فاجأت LLMs الجديدة ، على وجه الخصوص ، بعض مطوريها بقدراتهم غير المتوقعة وهي نفس النماذج المستخدمة في ChatGPT ، وهو روبوت محادثة صممه OpenAI. تشمل قدراتها “الناشئة” كل شيء من حل الألغاز المنطقية وكتابة كود الكمبيوتر إلى معرفة الأفلام من ملخصات الحبكة المكتوبة بالرموز التعبيرية.

سام التمان ، مؤسس OpenAI (Getty)

ستعمل هذه النماذج على تغيير علاقة الناس بأجهزة الكمبيوتر والمعرفة وحتى أنفسهم. يجادل أنصار الذكاء الاصطناعي بأنه يمكن أن يحل المشاكل الكبيرة عن طريق تطوير عقاقير جديدة ، أو تصميم مواد جديدة للمساعدة في مكافحة تغير المناخ ، أو حل تعقيدات توليد الطاقة من الاندماج. بالنسبة للآخرين ، إنها مسألة مخاطرة ، حيث بدأت قدرات البرنامج تتجاوز قدرات مبتكريها ، مما يعيد إحياء سيناريو كارثة خيال علمي لآلة تتخطى مخترعها ، مع عواقب وخيمة محتملة.

هذا المزيج من الإثارة والخوف يجعل من الصعب الموازنة بين الفرصة والمخاطرة. لكن يمكننا تعلم الدروس من الصناعات الأخرى ومن التغييرات التكنولوجية السابقة. ما الذي تغير لجعل الذكاء الاصطناعي أكثر قدرة؟ كيف يجب أن نكون خائفين؟ ماذا يجب أن تفعل الحكومات؟

هنا نستكشف طريقة عمل النماذج اللغوية الكبيرة واتجاهها المستقبلي. اعتمدت الموجة الأولى من أنظمة الذكاء الاصطناعي الحديثة ، التي ظهرت قبل عقد من الزمن ، على بيانات التدريب المصنفة بعناية ، وبمجرد تعرضها لأمثلة مصنفة كافية ، يمكن أن تتعلم القيام بأشياء مثل التعرف على الصور أو نسخ الكلام. لا تتطلب أنظمة اليوم تصنيفًا مسبقًا وبالتالي يمكن تدريبها باستخدام مجموعات بيانات أكبر بكثير مستمدة من مصادر عبر الإنترنت. يمكن في الواقع تدريب النماذج اللغوية الكبيرة بالكامل عبر الإنترنت ، مما يفسر إمكاناتها ، سواء كانت جيدة أو سيئة.

أصبحت هذه الميزات واضحة لجمهور أوسع عندما تم إطلاق ChatGBT في نوفمبر. استخدمه مليون شخص في أسبوع و 100 مليون في بضعة أشهر. سرعان ما تم استخدامه لإنشاء مقالات مدرسية وخطب زفاف. دفعت شعبية دردشة GPT وخطوة Microsoft لدمجها في محرك بحث Bing الشركات المنافسة لإطلاق برامج الدردشة أيضًا.

أسفر بعضها عن نتائج غريبة. اقترح روبوت الدردشة في متصفح Bing أن يترك المراسل زوجته. رفع دعوى قضائية ضد أستاذ قانون الدردشة GBT بتهمة التشهير. تنتج النماذج اللغوية الكبيرة إجابات تحمل قدرًا بسيطًا من الحقيقة ، ولكنها غالبًا ما تحتوي على أخطاء واقعية أو تراكيب صريحة. ومع ذلك ، بدأت Microsoft و Google وشركات التكنولوجيا الأخرى في دمجها في منتجاتها لمساعدة المستخدمين على إنشاء المستندات وأداء مهام أخرى.

أثار التسارع الأخير في كل من قوة ووضوح أنظمة الذكاء الاصطناعي ، والوعي المتزايد بنقاط قوتها وعيوبها ، مخاوف من أن التكنولوجيا تتحرك الآن بسرعة كبيرة بحيث لا يمكن التحكم فيها بأمان. ومن هنا جاءت الدعوة إلى إيقاف التشغيل والقلق المتزايد من أن الذكاء الاصطناعي يمكن أن يهدد ليس فقط الوظائف ودقة البيانات والسمعة ، ولكن وجود البشرية ذاته.

اختفاء؟ تمرد؟

يعود الخوف من سرقة الآلات للوظائف إلى قرون. ولكن حتى الآن خلقت التكنولوجيا الجديدة وظائف جديدة لتحل محل تلك التي دمرتها. تميل الآلات إلى أن تكون قادرة على أداء بعض المهام دون غيرها ، مما يؤدي إلى زيادة الطلب على الأشخاص الذين يمكنهم القيام بمهام لا تستطيع الآلات القيام بها. هل يمكن أن تكون هذه المرة مختلفة؟ لا يمكن استبعاد حدوث اضطراب مفاجئ في أسواق العمل ، حتى لو لم تكن هناك مؤشرات على حدوثه. تميل التكنولوجيا السابقة إلى استبدال المهام غير الماهرة ، لكن الأمثلة اللغوية الكبيرة يمكن أن تكمل بعض المهام ، مثل تجريد المستندات وكتابة التعليمات البرمجية.

كانت درجة الخطر الوجودي الذي يشكله الذكاء الاصطناعي محل نقاش ساخن. الخبراء منقسمون. في دراسة استقصائية لباحثي الذكاء الاصطناعي أجريت في عام 2022 ، اعتقد 48٪ أن هناك احتمالًا بنسبة 10٪ على الأقل أن يكون تأثير الذكاء الاصطناعي “سيئًا للغاية (مثل الانقراض البشري)”. لكن 25٪ قالوا إن الخطر كان 0٪. قدر الباحث العادي الخطر بنسبة 5٪. الكابوس هو أن الذكاء الاصطناعي المتقدم يسبب ضررًا على نطاق واسع ، ويخلق سمومًا أو فيروسات أو يقنع الناس بارتكاب أعمال إرهابية. لا يجب أن يكون خبيثًا: يخشى الباحثون أن يكون للذكاء الاصطناعي في المستقبل أهداف لا تتوافق مع أهداف منشئوه من البشر.

(جيتي)

لا ينبغي استبعاد مثل هذه السيناريوهات. لكن كل ذلك ينطوي على قدر هائل من التخمين وقفزة هائلة من التكنولوجيا المتاحة اليوم. يتصور الكثيرون أنه في المستقبل ، سيكون للذكاء الاصطناعي وصول غير محدود إلى الطاقة والمال وقوة الحوسبة ، وهي قيود حقيقية اليوم ، والتي يجب أن يُحرم أي ذكاء اصطناعي ثوري في المستقبل من الوصول إليها. يميل الخبراء إلى المبالغة في تقدير المخاطر في مجالاتهم ، مقارنةً بخبراء الأرصاد الجوية الآخرين (والسيد ماسك ، الذي أطلق شركة الذكاء الاصطناعي الخاصة به ، حريص على تخليص منافسيه من أدواتهم). يبدو أن فرض قوانين مرهقة أو إيقاف العمل على الذكاء الاصطناعي اليوم مبالغ فيه. أيضًا ، لن يكون التعليق المؤقت قابلاً للتنفيذ.

هناك حاجة لتنظيم العمل في مجال الذكاء الاصطناعي ، ولكن لأسباب أقل أهمية من إنقاذ البشرية. تثير أنظمة الذكاء الاصطناعي الحالية مخاوف حقيقية بشأن التحيز والخصوصية وحقوق الملكية الفكرية. مع تقدم التكنولوجيا ، قد تظهر مشاكل أخرى. المفتاح هو الموازنة بين وعود الذكاء الاصطناعي ، وتقييم مخاطره ، والاستعداد للتكيف معه.

حتى الآن ، اتبعت الحكومات ثلاثة مناهج مختلفة للتعامل مع التكنولوجيا الجديدة. اقترحت بريطانيا نهجًا “ناعمًا” بدون قواعد أو ضوابط جديدة ، مع تطبيق لوائح قائمة على أنظمة الذكاء الاصطناعي. والهدف من ذلك هو زيادة الاستثمار وتحويل بريطانيا إلى “قوة عظمى للذكاء الاصطناعي”. اتبعت أمريكا نهجًا مشابهًا ، على الرغم من أن إدارة بايدن تسعى الآن للحصول على مدخلات عامة بشأن شكل التنظيم الذي ستفرضه.

يتخذ الاتحاد الأوروبي موقفاً أكثر تشدداً. يصنف القانون الذي اقترحته الاستخدامات المختلفة للذكاء الاصطناعي حسب درجة المخاطر ويتطلب مراقبة واكتشاف أكثر صرامة مع زيادة المخاطر ، على سبيل المثال من التوصيات الموسيقية إلى السيارات ذاتية القيادة. تُحظر تمامًا بعض استخدامات الذكاء الاصطناعي ، مثل الإعلانات القائمة على التلاعب بوعي الجمهور وأخذ المعلومات الحيوية من الأشخاص عن بُعد ، وسيتم تغريم الشركات التي تنتهك القواعد. بالنسبة لبعض النقاد ، تبدو هذه القواعد خانقة للغاية.

يجادل آخرون بأن هناك حاجة إلى نهج أكثر صرامة وأن الحكومات يجب أن تعامل الذكاء الاصطناعي مثل العقاقير ، مع هيئة خاصة ، وسلاسل صارمة للاختبار والموافقة قبل طرح البرامج للجمهور. تقوم الصين ببعض من هذا ، حيث تطلب من الشركات تسجيل منتجات الذكاء الاصطناعي والخضوع لتدقيق السلامة قبل طرحها للبيع. لكن دافع الصين سياسي وليس أمنيًا: أحد الشروط هو أن إنتاج الذكاء الاصطناعي يعكس “القيمة الأساسية للاشتراكية”.

ما هو المطلوب؟ من غير المحتمل أن يكون النهج خفيفًا بدرجة كافية. إذا كان الذكاء الاصطناعي لا يقل أهمية عن التكنولوجيا مثل السيارات والطائرات والطب ، وكان هناك سبب وجيه للاعتقاد بذلك ، فعلينا وضع قواعد وأنظمة جديدة لها. نموذج الاتحاد الأوروبي أقرب إلى المطلوب ، على الرغم من أن نظام التصنيف الخاص به صارم ونحن بحاجة إلى تطوير نهج يعتمد على مبادئ الاتحاد الأوروبي ، والذي سيكون أكثر مرونة. وهذا يتطلب من الشركات الإفصاح عن كيفية تدريب الأنظمة وكيفية عملها وكيفية مراقبتها ، وهذا يعني وجود سلطة لتفتيشها ، وفي ذلك الوقت يكون العمل على تنظيمها مرنًا وقابلًا للمقارنة مع القواعد المماثلة في أخرى الصناعات.

قد يؤدي ذلك إلى تشديد اللوائح بمرور الوقت إذا لزم الأمر ، ومن ثم سيكون من الطبيعي أن يكون هناك منظم مخصص للذكاء الاصطناعي ، وسيكون من الطبيعي أن تكون هناك شروط حكومية دولية ، مماثلة لتلك التي تحكم الأسلحة النووية ، إذا كان هناك دليل معقول على وجود تهديد وجودي. لرصد هذه المخاطر ، يمكن للحكومات إنشاء منظمة مثل CERN ، مختبر فيزياء الجسيمات ، يمكنه دراسة سلامة وأخلاقيات الذكاء الاصطناعي ، وهي المجالات التي يكون لدى الشركات فيها حافز أقل للاستثمار مما يريده المجتمع.

تقدم هذه التكنولوجيا القوية للإنسانية أخطارًا جديدة ، ولكنها تقدم أيضًا فرصًا غير عادية. تحقيق التوازن بين الاثنين يعني السير بحذر. المضي بحذر هو وضع الأساس الذي سنحتاج إليه لبناء المزيد من اللوائح والقواعد في المستقبل. الآن ، حان الوقت لوضع بعض الأسس.


تابع تفاصيل كيف نقلق بذكاء من “الذكاء الاصطناعيّ”؟ وقد تم طرح الخبر عبر عرب 48 .. تابع كيف نقلق بذكاء من “الذكاء الاصطناعيّ”؟
والتفاصيل عبر الوطن #كيف #نقلق #بذكاء #من #الذكاء #الاصطناعي

المصدر : عرب 48