عدم قوننة الذكاء الاصطناعي ثلاث مجالات مهددة : الخصوصية والمهن والأمن السيبراني

دخلنا عصرًا جديدًا، حيث لم يعد الذكاء حكرًا على البشر وحدهم. فما كنا نشاهده في أفلام الخيال العلمي أصبح واقعً ملموسًا، وما بدا مستحيلًا بالأمس أصبح اليوم في طور التطبيق. العالم يشهد تطورًا هائلًا في مجال الذكاء الاصطناعي، إذ تتسارع وتيرة الابتكارات في مختلف القطاعات، مما يجعله واحدًا من أكثر التحولات التكنولوجية تأثيرًا في تاريخ البشرية وتبرز الحاجة الى قوننة هذا الذكاء .
لكن هذه الثورة الرقمية، على الرغم من فوائدها، تطرح تحديات خطيرة تتعلق بغياب القوانين المنظمة لها، مما قد يؤثر على الخصوصية، وسوق العمل، والأمن السيبراني، وغيرها. في غياب القوننة، قد يتحول الذكاء الاصطناعي من أداة للنهوض بالبشرية إلى خطر يهدد استقرار المجتمعات
الفوضى الرقمية وانتهاك الخصوصيّة: الحاجة إلى قوننة البيانات
أصبح الذكاء الاصطناعي جزء لا يجزأ من حياتنا اليومية، فكل نقرة تقوم بها من إعجاب على صورة أو تعليق على منشور أو حتى بمجرد التسجيل على إحدى منصات وسائل التواصل الإجتماعي فإنك بذلك تولد البيانات. وتوليد البيانات هي عملية خلق وتجميع البيانات الضخمة ليتم تحليلها عبر الذكاء الاصطناعي. فيسبوك مثلا، يعتمد بشكل أساسي على جمع المعلومات والبيانات وتحليلها، وكذلك تعمل كل وسائل الكنولوجيا باستخدام الذكاء الاصطناعي
قد يتبادر الى ذهنك الآن سؤال، عن السبب الذي يدفع هذه الشركات لجمع هذه الكمية الكبيرة من البيانات، أجيبك بأن هذه البيانات الضخمة تساعد الشركات لبيع منتجاتها أي بهدف التسويق ولأخذ القرارات الصحيحة، فشركة “وولمارت” استطاعت أن تزيد من مبيعاتها بنسبة 30% مما زاد من أرباحها بنسبة 40% بسبب البيانات الضخمة التي جمعتها لمعرفة سلوك الزبائن
ولكن جمع البيانات ليس لأهداف نبيلة فهذه الفوضى تؤدي إلى انتهاك خصوصيّة المستخدم. نذكر هنا فضيحة كامبريدج اناليتيكا عام 2018 ، حيث تم استخدام بيانات ملايين المستخدمين دون إذنهم للتأثير على الحملات الإنتخابية.
اذا إن شركات مثل ميتا وجوجل لا تمتلك حتى منتجاً ، بل إن بياناتك هي المنتج. هذه البيانات التي تحتوي على معلومات شخصية حساسة كالسجلات الصحية والمعاملات المالية والبيانات البيومترية فالوصول لهذه المعلومات هو انتهاك للخصوصصيّة وانتهاك حقوق الأفراد في الخصوصيّة .
انتهاك الخصوصية هذا يستعمل للتأثير على قراراتك اليومية من قراراتك الشرائية وحتى قراراتك السياسية. مثلا، فيسبوك وجوجل يذكران في سياسة الخصوصية أن البيانات قد تُشارك مع “شركاء موثوقين”، لكن لا يتم توضيح من هم هؤلاء الشركاء
الأمر الأكثر خطورة أنك قد قمت بنفسك بالموافقة على اتطلاع جهة ثالثة على بياناتك بمجرد تسجيل دخولك وموافقتك على سياسات الخوصية -لميتا مايكروسوفت غوغل سناب شات امازون آبل وغيرها- التي يتم ادراجها في سياسة الخصوصية الطويلة والمعقدة دون إدراج خيار واضح لإلغاء مشاركة البيانات، مما يجعل الموافقة إجبارية. كما أن بعض الشركات تستخدم تصميمات خادعة تجعل المستخدم يوافق دون أن يدرك

الذكاء الاصطناعي وسوق العمل: قوننة لحماية الوظائف
في صباح عادي، استيقظ العامل محمود ليجد أن ماكينة ذكية قد حلت مكانه في ورشة عمله. سيناريو لم يعد مستبعدًا في ظل تسارع أتمتة الوظائف. ووفقًا لتقرير نشرته سي أن أن ، فإن 41% من أصحاب العمل يعتزمون تقليص حجم قوتهم العاملة مع دمج الذكاء الاصطناعي في مهام معينة. كما أظهر استطلاع للمنتدى الاقتصادي العالمي أن 77% من الشركات الكبرى تخطط لإعادة تأهيل موظفيها بين عامي 2025 و2030 ليعملوا بشكل تكاملي مع هذه التكنولوجيا
لم يعد الأمر يقتصر على الوظائف اليدوية، بل طال أيضًا المهن الإبداعية مثل كتابة المحتوى، حيث أصبحت أدوات مثل تشات جي بي تي بديلاً عن الكُتّاب، وكذلك مجال التصميم الجرافيكي، الذي تأثّر بظهور تطبيقات الذكاء الاصطناعي المتطورة. ولكن التحدي الأكبر يكمن في غياب التشريعات التي تنظم تأثير هذه التقنيات على الوظائف البشرية.
أحد أبرز التحولات كان في مجال التوظيف، حيث بدأت أنظمة الذكاء الاصطناعي تحل محل مديري الموارد البشرية . سابقا، كان مسؤول التوظيف يراجع السير الذاتية، يجري المقابلات، ويختار المرشحين المناسبين، بينما اليوم تعتمدالشركات على أنظمة (اي تي أس) لفرز آلاف السير الذاتية تلقائيًا بناءً على كلمات مفتاحية وحتى مرحلة المقابلات أصبحت مؤتمتة؛ إذ تستخدم بعض الشركات نظام (هيرفيو) الذي يجري مقابلات فيديو ويقيم المرشحين بناءً على تعبيرات وجوههم.
لكن هذا الأمر قد يحمل أخطاء وتحيزات. فالذكاء الاصطناعي يعتمد على البيانات التي يتم تدريبه عليها، وإذا كانت هذه البيانات غير متوازنة، فقد ينحاز ضد فئات معينة. مثال واضح على ذلك حدث عام 2018 مع شركة أمازون، حيث أظهرت خوارزميات التوظيف تحيزًا ضد النساء، لأنها استندت إلى بيانات تاريخية تفضل الرجال.
الذكاء الإصطناعي قد يرفض المتقدمين الذين لا يتطابقون تمامًا مع المعايير المحددة، حتى لو كانوا مؤهلين. كما أنه لا يستطيع تقييم الشخصية والمرونة بنفس دقة الإنسان.لذا غياب التشريعات والضوابط القانونية يمكن أن يؤدي إلى ممارسات غير عادلة، مثل التحيز في اتخاذ قرارات التوظيف أو استبدال الوظائف البشرية بشكل مفرط. لذا فإن قوننة الذكاء الاصطناعي يمكن أن تساعد في معالجة هذه القضايا وضمان استخدام التكنولوجيا بشكل عادل وآمن .

الذكاء الاصطناعي في الجرائم الرقمية: أهمية قوننة الأمن السيبراني
في ظل غياب تشريعات حازمة، أصبح الذكاء الاصطناعي أداة خطيرة تُستخدم في مجالات غير أخلاقية مثل القرصنة الإلكترونية، والتزييف العميق، وحتى تصنيع الأسلحة الذكية التي قد تتخذ قرارات ذاتية دون إشراف بشري وقد شهدنا هذا في الحرب على غزة ولبنان . هذا الاستخدام غير المنضبط يزيد من المخاطر الأمنية على المستوى العالمي، مما يجعله في متناول جهات غير مسؤولة، سواء كانوا أفرادًا أو أنظمة سياسية تسعى لتحقيق أهدافها بطرق غير مشروعة
لم تعد الهجمات السيبرانية تقتصر على الاختراقات التقليدية، بل باتت مدعومة بالذكاء الاصطناعي. وفقًا لتقرير صادر عن المركز الوطني للأمن السيبراني في المملكة المتحدة، يستغل المهاجمون تقنيات الذكاء الاصطناعي لتطوير حملات برامج الفدية، التي تستهدف الشركات والأفراد عبر تشفير بياناتهم وطلب فدية لإعادتها.
تتمتع برامج الفدية المدعومة بالذكاء الاصطناعي بالقدرة على تحليل كميات هائلة من البيانات، وتخصيص استراتيجياتها بناءً على ما تتعلمه عن الضحايا المحتملين وبيئاتهم. وقد أظهرت بعض إصدارات قدرتها على الاستفادة من النماذج اللغوية الكبيرة لتنفيذ عمليات استطلاع متقدمة وهجمات هندسة اجتماعية معقدة، مما يساعدها على تفادي الكشف وسرقة كميات هائلة من البيانات الحساسة
تغيرت أساليب الحروب مع تطور الذكاء الاصطناعي، وابتكر الانسان حربا بلا دماء، إذ لم يعد الصراع يقتصر على المواجهات العسكرية التقليدية، بل امتد إلى الفضاء السيبراني، الذي أصبح أحد أركان القوة الاستراتيجية للدول والشركات الكبرى. هذا الفضاء يحتوي على كميات هائلة من البيانات، مما يجعله هدفًا مغريًا للهجمات السيبرانية، سواء من قبل الدول أو الجماعات الإرهابية.
يستخدم المتسللون الذكاء الاصطناعي لإنشاء هجمات متقدمة، وتصميم برمجيات خبيثة قادرة على التحايل على الأنظمة الأمنية، حتى تلك المدعومة بالذكاء الاصطناعي ذاته.
من أبرز الأمثلة على تسخير الذكاء الاصطناعي لأغراض التجسس، هو ما قام به العدو الاسرائيلي منذ أيام عبر شركة التجسس الاسرائيلية باراغو سولوشنز بمحاولة اختراق حسابات نحو 90 مستخدما لتطبيق وتساب. اضافة الى برنامج “بيغاسوس” الذي طورته مجموعة أن أس أو الإسرائيلية. يُستخدم هذا البرنامج للتجسس على الهواتف المحمولة، حيث يمكنه اختراق الأجهزة وسرقة البيانات الشخصية، مما يثير مخاوف واسعة حول انتهاك الخصوصية واستخدام الذكاء الاصطناعي في التجسس على نطاق عالمي.

القوانين العالمية لتنظيم الذكاء الاصطناعي: جهود للقوننة على مستوى العالم
في الوقت الذي يقدم فيه الذكاء الاصطناعي فرصًا كبيرة لتحقيق الابتكار وتحسين حياة البشر، تزداد المخاوف من تأثيراته السلبية على حقوق الإنسان، خصوصًا في غياب التشريعات الحازمة التي تواكب هذا التطور. من هنا، تبرز الحاجة إلى قوننة الذكاء الاصطناعي لضمان استخدامه بشكل عادل ومسؤول، وتجنب المخاطر المرتبطة به مثل التمييز والتحيز أو الاستخدامات غير الأخلاقية.
لذا شهدت السنوات الأخيرة اهتمامًا متزايدًا على مستوى العالم في قوننة الذكاء الاصطناعي، حيث أطلقت العديد من الدول مبادرات وتشريعات تهدف إلى تنظيم هذه التقنية المتطورة وضمان استخدامها بشكل آمن وأخلاقي.
فقد قام الاتحاد الأوروبي، بتنظيم قانون الذكاء الاصطناعي (أي آي أكت) الأول من نوعه الذي يهدف إلى تنظيم استخدام الذكاء الاصطناعي. ينقسم القانون إلى فئات تعتمد على مستوى المخاطر، مع فرض رقابة صارمة على الأنظمة عالية المخاطر. هذا القانون يفتح الطريق نحو تشريعات أكثر شمولًا في مجال الذكاء الاصطناعي.
أما في الولايات المتحدة، فإن النهج التنظيمي يختلف، حيث لا يوجد تشريع شامل على المستوى الفيدرالي حتى الآن. بدلاً من ذلك، تُنفذ إجراءات تنفيذية بشكل لامركزي تغطي مجالات مثل حماية البيانات وأمنها، مع التركيز على ضرورة تسريع البحث والابتكار في هذا المجال.
وفي الصين، تركز الحكومة على الرقابة القوية، حيث تفرض على الشركات تقديم خوارزميات الذكاء الاصطناعي للمراجعة لضمان التوافق مع القيم الاشتراكية. وقد تمتد هذه الرقابة لتشمل قطاعات أخرى مثل الإعلام والتجارة.
على الجانب الآخر، في المملكة المتحدة، تعتمد الحكومة على استراتيجيات تنظيمية تهدف إلى دفع الابتكار في الذكاء الاصطناعي مع ضمان الشفافية والمساءلة، من خلال هيئات مختصة تراقب تطبيقات هذه التقنية.
وتشجع اليابان، الشركات على الامتثال لإرشادات خاصة بتنظيم الذكاء الاصطناعي، مع التأكيد على أهمية التعاون الدولي في وضع المعايير. بينما تعمل الهند على وضع مشروع قانون لتنظيم الذكاء الاصطناعي، يهدف إلى معالجة التحديات التي قد تنشأ مع انتشار هذه التقنية في المجالات الحساسة مثل الرعاية الصحية والتعليم.
وفي كندا، تركز القوانين على دعم البحث والتنمية في الذكاء الاصطناعي، مع التأكيد على القيم الأخلاقية والتنوع. كما أطلقت الولايات المتحدة الأمريكية مبادرة الذكاء الاصطناعي الوطنية، التي تهدف إلى تعزيز القيادة الأمريكية في هذا المجال من خلال التركيز على الأمان والعدالة والخصوصية.
مع هذه المبادرات المتعددة، يُظهر العالم بشكل واضح الحاجة الملحة لتشريعات تواكب الابتكار في مجال الذكاء الاصطناعي، بهدف تحقيق توازن بين التطور التكنولوجي وحماية حقوق الأفراد والمجتمعات
لقراءة المزيد للكاتبة، اضغط هنا

تعليق واحد