البنوك دوت كوم:
هل يمكن ان ينتصر الذكاء الاصطناعي في حربه مع البشر ؟ يمر هذا السؤال علي خاطر الملايين من البشر كلما تطور الامر ، خاصة وان اقتحام الذكاء الاصطناعي للمجال البشري بات حقيقيا واذا كنا نريد اجابة شافية علينا ان نقرأ ما كتبته الصحافة العالمية حول هذا الامر .
في امر الذكاء الاصطناعي هناك اشياء ايجابية وسلبية ومن السلبيات :
فقدان الوظائف حيث يمكن للذكاء الاصطناعي أتمام وظائف عدة، مما يؤدي إلى انتشار البطالة.
التسلح ويمكن استخدام الذكاء الاصطناعي لتطوير أسلحة مستقلة يمكن أن تقتل من دون تدخل بشري. فقدان السيطرةحيث يمكن أن تصبح أنظمة الذكاء الاصطناعي معقدة للغاية لدرجة أننا نفقد السيطرة عليها.
وهناك عدد من الطرق التي يمكن للذكاء الاصطناعي من خلالها إفادة البشرية، تتمثل في:
تحسين الرعاية الصحية: يمكن استخدامه لتطوير علاجات جديدة للأمراض وتحسين دقة التشخيص، وتخصيص الرعاية الصحية لكل فرد. على سبيل المثال، يتم استخدام الذكاء الاصطناعي لتطوير علاجات جديدة للسرطان تكون أكثر فاعلية وأقل سمية من العلاجات التقليدية.
التنمية المستدامة: تطوير طرق جديدة للحفاظ على الطاقة والموارد.
زيادة الإنتاجية: أتمتة المهمات وتحسين الكفاءة، مما قد يؤدي إلى زيادة الإنتاجية وخفض الكلف، ويتم استخدام الذكاء الاصطناعي لأتمتة المهمات مثل اللحام والطلاء والتجميع.
النقل: تطوير السيارات والشاحنات ذاتية القيادة، مما يجعل النقل أكثر أماناً وفاعلية، إذ إن السيارات ذاتية القيادة تتمتع بالقدرة على تقليل حوادث المرور والوفيات، فضلاً عن تحسين تدفق حركة المرور.
اتخاذ القرار: المساعدة في اتخاذ قرارات أفضل في شأن المشكلات المعقدة.
تغير المناخ: تطوير تقنيات جديدة لتقليل اعتمادنا على الوقود الأحفوري ولمساعدتنا في التكيف مع آثار تغير المناخ.على سبيل المثال، يتم استخدام الذكاء الاصطناعي لتطوير طرق جديدة لتوليد الطاقة المتجددة وتخزينها.
الفقر: يمكن استخدام الذكاء الاصطناعي لتطوير طرق جديدة لتوزيع الغذاء والموارد الأخرى على المحتاجين. على سبيل المثال، يتم استخدام الذكاء الاصطناعي لتطوير أنظمة توزيع أغذية جديدة يمكن أن تصل إلى المناطق النائية وتكون أكثر كفاءة من الأساليب التقليدية.
هذه مجرد أمثلة قليلة لمساعدتنا في بناء المستقبل، ومع استمرار تطور الذكاء الاصطناعي يمكننا أن نتوقع رؤية مزيد من التطبيقات المبتكرة والمفيدة لهذه التكنولوجيا، فهناك طرق عدة لتطوير هذه التقنية لمساعدتنا في بناء المستقبل. وفي ما يلي بعض الأمثلة على ذلك:
الاستثمار في الأبحاث: نحن بحاجة إلى الاستثمار في البحث والتطوير لمواصلة تحسين قدرات الذكاء الاصطناعي. يشمل ذلك تمويل البحث في خوارزميات وتقنيات جديدة للذكاء الاصطناعي، إضافة إلى تطوير منصات جديدة للأجهزة والبرامج يمكنها دعم تطبيقات الذكاء الاصطناعي.
إنشاء إرشادات أخلاقية: هناك حاجة إلى إنشاء مبادئ توجيهية أخلاقية لتطوير واستخدام الذكاء الاصطناعي، ويجب أن تساعد هذه الإرشادات على ضمان الاستعمال بطريقة مسؤولة ومفيدة.
تثقيف الجمهور: نحن بحاجة إلى تثقيف الجمهور حول الذكاء الاصطناعي، وهذا يشمل تعليم الناس الفوائد والأخطار المحتملة للتقنية، وكذلك كيفية الاستخدام بأمان ومسؤولية.
تعزيز التعاون الدولي: هذا الجانب سيعمل على تطوير واستخدام الذكاء الاصطناعي وسيساعد ذلك في ضمان استعماله بطريقة تفيد البشرية جمعاء.
من خلال اتخاذ هذه الخطوات، يمكننا المساعدة في ضمان استخدام الذكاء الاصطناعي لبناء مستقبل أفضل لنا جميعاً.
تشريعات للمواجهة
من جهة اخري تتسابق السلطات في جميع أنحاء العالم لوضع قواعد للذكاء الاصطناعي، بما في ذلك في الاتحاد الأوروبي ، وصوتت لجنة برلمانية أوروبية ،على تعزيز الاقتراح التشريعي الرئيسي، وهو يتجه نحو إقراره كجزء من جهد استمر سنوات من قبل بروكسل، لوضع حواجز حماية للذكاء الاصطناعي، لقد اتخذت هذه الجهود مزيدًا من الإلحاح نظرًا للتقدم السريع في روبوتات المحادثة مثل ChatGPT ، والتي سلطت الضوء على الفوائد التي يمكن أن تجلبها التكنولوجيا الناشئة – والمخاطر الجديدة التي تشكلها،فيما يلي نظرة على قانون الذكاء الاصطناعي للاتحاد الأوروبي:
سيحكم قانون الذكاء الاصطناعي، الذي تم اقتراحه لأول مرة في عام 2021، أي منتج أو خدمة تستخدم نظام ذكاء اصطناعي، سيصنف القانون أنظمة الذكاء الاصطناعي وفقًا لأربعة مستويات من المخاطر، من الحد الأدنى إلى غير المقبول، ستواجه التطبيقات الأكثر خطورة متطلبات أكثر صرامة، بما في ذلك أن تكون أكثر شفافية، واستخدام بيانات دقيقة، قال يوهان لاوكس ، الخبير في معهد أكسفورد للإنترنت ، فكر في الأمر على أنه “نظام إدارة مخاطر للذكاء الاصطناعي”.
أحد الأهداف الرئيسية للاتحاد الأوروبي هو الحماية من أي تهديدات للذكاء الاصطناعي، للصحة ،والسلامة ،وحماية الحقوق ،والقيم الأساسية.
وهذا يعني أن بعض استخدامات الذكاء الاصطناعي تعتبر محظورة تمامًا، مثل أنظمة “التقييم الاجتماعي” التي تحكم على الأشخاص بناءً على سلوكهم، يُحظر أيضًا استخدام الذكاء الاصطناعي الذي يستغل الأشخاص المستضعفين، بما في ذلك الأطفال ،أو الذي يستخدم التلاعب اللاوعي ،الذي يمكن أن يؤدي إلى الأذى ، مثل لعبة التحدث التفاعلية التي تشجع على السلوك الخطير.
عزز ايضا المشرعون الاقتراح بالتصويت لحظر أدوات الشرطة التنبؤية، التي تحطم البيانات للتنبؤ بمكان حدوث الجرائم ومن سيرتكبها،كما وافقوا على حظر موسع على التعرف على الوجه عن بعد، باستثناء بعض الاستثناءات لتطبيق القانون، مثل منع تهديد إرهابي معين، وتقوم التكنولوجيا بمسح المارة، وتستخدم الذكاء الاصطناعي لمطابقة وجوههم بقاعدة بيانات.
قال براندو بينيفي، النائب الإيطالي الذي يساعد في قيادة جهود الذكاء الاصطناعي في البرلمان الأوروبي ، للصحفيين يوم الأربعاء إن الهدف هو “تجنب مجتمع خاضع للرقابة يعتمد على الذكاء الاصطناعي” “نعتقد أنه يمكن استخدام هذه التقنيات بدلاً من الخير للشر أيضًا، ونعتبر أن المخاطر عالية جدًا.”
أنظمة الذكاء الاصطناعي المستخدمة في فئات عالية المخاطر مثل التوظيف والتعليم، والتي من شأنها أن تؤثر على مسار حياة الشخص، تواجه متطلبات صعبة مثل الشفافية، مع المستخدمين ووضع تدابير لتقييم المخاطر والتخفيف من حدتها.
يقول الذراع التنفيذي للاتحاد الأوروبي إن معظم أنظمة الذكاء الاصطناعي ، مثل ألعاب الفيديو، أو عوامل تصفية البريد العشوائي ، تقع ضمن فئة منخفضة المخاطر أو معدومة.
لم يذكر الاقتراح الأصلي المكون من 108 صفحة روبوتات المحادثة ، الأمر الذي يتطلب فقط تصنيفها حتى يعرف المستخدمون أنهم يتفاعلون مع جهاز، أضاف المفاوضون لاحقًا أحكامًا لتغطية الأغراض العامة للذكاء الاصطناعي مثل ChatGPT ، مما يعرضهم لبعض من نفس المتطلبات مثل الأنظمة عالية المخاطر.
تتمثل إحدى الإضافات الرئيسية في مطلب التوثيق الشامل لأي مواد حقوق نشر، مستخدمة لتعليم أنظمة الذكاء الاصطناعي كيفية إنشاء نص، أو صور، أو فيديو، أو موسيقى، تشبه العمل البشري، سيسمح ذلك لمنشئي المحتوى ،بمعرفة ما إذا كانت منشورات المدونات ،أو الكتب الرقمية، أو المقالات العلمية، أو أغاني البوب ،قد تم استخدامها لتدريب الخوارزميات التي تعمل على تشغيل أنظمة مثل ChatGPTثم يمكنهم أن يقرروا ما إذا كان قد تم نسخ عملهم ويطلبوا الإنصاف.
لا يعتبر الاتحاد الأوروبي لاعبًا كبيرًا في تطوير الذكاء الاصطناعي المتطور، هذا الدور تقوم به الولايات المتحدة والصين، لكن بروكسل غالبًا ما تلعب دورًا في تحديد الاتجاهات ،من خلال اللوائح التي تميل إلى أن تصبح معايير عالمية بحكم الواقع.
“الأوروبيون ، على مستوى العالم ، أثرياء إلى حد ما وهناك الكثير منهم” ، لذلك غالبًا ما تقرر الشركات والمؤسسات أن الحجم الهائل للسوق الموحدة للكتلة التي تضم 450 مليون مستهلك يسهل الامتثال بدلاً من تطوير منتجات مختلفة لمناطق مختلفة ،لكنها ليست مجرد مسألة اتخاذ إجراءات صارمة.
قال لاوكس إنه من خلال وضع قواعد مشتركة للذكاء الاصطناعي ، تحاول بروكسل أيضًا تطوير السوق من خلال غرس الثقة بين المستخدمين.
قال لاوكس: “الفكرة الكامنة وراء ذلك هي إذا كان بإمكانك حث الناس على وضع الثقة في الذكاء الاصطناعي والتطبيقات ، فسيستخدمونه أيضًا بشكل أكبر” “وعندما يستخدمونه أكثر ، سيفتحون الإمكانات الاقتصادية والاجتماعية للذكاء الاصطناعي.”
ستؤدي الانتهاكات إلى فرض غرامات تصل إلى 30 مليون يورو (33 مليون دولار) أو 6٪ من الإيرادات العالمية السنوية للشركة ، والتي قد تصل في حالة شركات التكنولوجيا مثل Google و Microsoft إلى المليارات.