الجميع قد يقع ضحيته.. خطر يتربّص بالعالم وهذا كل ما يمكن للبناني القيام به!

خطر وحيد يجمع الدول العظمى بغيرها في هذه الأيام، وهو الذكاء الاصطناعي والممارسات الناجمة عنه. فبين السياسة والإحتيال المالي والخصوصية الفردية، باتت أجراس الإنذار تقرع في شتى المجالات. ومع التطور المستمر الذي تشهده تكنولوجيا توليد التزييف العميق، لا بدّ من التوقف قليلاً عند هذا التهديد وفهم الموضوع بشكل أوسع.

تزييف الفيديوهات

عن تأثير الذكاء الإصطناعي على صناعة الصور والفيديوهات المزيّفة، سألنا الخبير في الأمن الرقمي والمعلوماتي رولان أبي نجم، الذي أكّد أنه بات كبيراً جداً خاصة مع إنضمام تطبيق Sora التابع لشركة OpenAI الذي بإمكانه إنشاء أي فيديو بشكل متكامل عبر أي نصّ كان.

أبي نجم أشار لـ"لبنان24" إلى أن الأمر لا يتعلّق فقط بهذا التطبيق الحديث والمنتشر كثيراً، بل يمكن أيضاً تزييف الفيديوهات عن طريق تطبيقات عدّة تمكّن المستخدمين من إنشاء صورة أو فيديو عبر نصّ، مشدداً على أن دقّة هذه الفيديوهات عالية جداً HD لذلك من الصعب التمييز بين المحتوى الصحيح والمحتوى المزيّف المصنوع عبر الذكاء الإصطناعي.

وفي ما يشير إلى مدى حساسية هذا الموضوع، أفاد أبي نجم بأنه يمكن صناعة فيديوهات ليس موجودة أصلاً كابتكار أماكن أو أشخاص غير موجودين أبداً، كما يمكن إنشاء فيديوهات عبر التزييف العميق لجعل الأشخاص الحقيقيين يلقون خطابات لم تحصل أبداً.

وفي العودة إلى أصل إنشاء التزييف العميق، فقد تمّ ابتكاره عبر الذكاء الإصطناعي ليس بهدف الشرّ، إنمّا لاستخدامات معيّنة تختلف بين الشخص والآخر.

من هنا، اعتبر أبي نجم أنه في حال تمّ استخدام التقنيات الحديثة والذكية بشكل إيجابي وبنّاء، يمكن أن تفيد في صناعة أبرز وأهمّ المحتويات بشكل إبداعي، بينما يمكن أن تؤثر سلباً على المستخدمين خاصة بما خصّ تزوير الأخبار وسواها وهو ما بدأ يطلّ برأسه على أرض الواقع من خلال مواقع إخبارية مصنوعة عبر الذكاء الإصطناعي، تبثّ أخباراً ونصوصاً وفيديوهات قد يصعب على المستخدم التمييز بينها وبين ما هو حقيقي.

هل الوقاية ممكنة؟

الخبر السيء هنا بحسب أبي نجم، هو أنه "مع الأسف لا يمكن الوقاية من هذا الأمر على الصعيد الشخصي ولا العام، وما من إجراءات يمكن اتخاذها لعدم وقوع ضحية التزييف، خاصة مع غياب أي ضوابط وقوانين"، مشيراً إلى أنه حتى ولو سُنّت هذه القوانين، إلا أنها ستبقى محدودة، لأنه مثلاً إذا قام أحد الناشطين في كوريا الشمالية بابتكار فيديو استهدف أشخاصاَ في لبنان، فلا يمكن لهم التحرك ضدّه، وبالتالي الأمر ليس محصوراً في إطار جغرافي كي يتمكّن المستخدمون من حماية أنفسهم.

إلا أن أبي نجم ركّز بشكل كبير في هذا السياق على الوعي الذي يجب أن يتحلّى به رواد مواقع التواصل الإجتماعي، داعياً لاتباع منهج Zero Trust أي عدم الثقة بأي شيء، خاصة أنه في ظل الحديث عن الذكاء الإصطناعي والإبتكار السهل للفيديوهات والأصوات، يجب دوماً التأكد من المعلومات قبل تصديقها، قائلاً إن "عبارة "لا أصدّق شيئاً قبل رؤيته صوتاً وصورة" التي كنا نعتمدها في السابق، باتت غير صحيحة ولا فعاّلة في أيامنا هذه".

التشريع أبطأ من التطور

وعلى صعيد الرّدع، أشار أبي نجم إلى أن الأنظمة العالمية تحاول بشكل جدّي وضع ضوابط لهذا الموضوع، وخاصة الإتحاد الأوروبي وأميركا، إلا أن الأمر ليس بهذه السهولة إذ أن المشرّعين ليسوا بعد على دراية كافية بمخاطر الذكاء الإصطناعي الذي لا يزال حديثاً جداً بالنسبة لهم.

وفي هذا الإطار، قد يكون التشريع أبطأ من التطور لأن بعض التشريعات التي يتمّ العمل عليها الآن لن تكون قيد التطبيق قبل العام 2026، ومن الآن حينه بحسب أبي نجم، أمور كثيرة حديثة ستطرأ تقنياً.
وأضاف أنه يتمّ اليوم الضغط باتجاه محركات البحث كغوغل ويوتيوب وغيرهما، كي تضع ما يشير إلى أن المحتوى مصنوع عن طريق الذكاء الإصطناعي لمساعدة المستخدمين على معرفة الحقيقي من المزّيف، إلا أن هذا الأمر لا يزال قيد البحث والدراسة.

ماذا عن لبنان؟

وعن واقع لبنان من هذا الخطر المستجدّ، فأشار أبي نجم إلى أن الأمر لا يتعلّق بدولة واحدة وهو قطعاً موجود في لبنان كما في الخارج لأن المحتوى منشور عبر الإنترنت في كل العالم.

إلا أنه شدّد على أن المواطن اللبناني الذي يقع ضحية أي فيديو مفبرك له، أن يرفع دعوى قضائية عبر النيابة العامة التمييزية لتتحول إلى مكتب مكافحة الجرائم المعلوماتية، والهدف منها حماية النفس وليس الحصول على تعويض.

وأوضح أن "المواطن ممكن أن يتوّرط بأي شكل من الأشكال في حال تمّت فبركة فيديو له، لذا عندما يرفع دعوى قضائية، فهذا سيكون في سبيل رفع المسؤولية عن نفسه لا أكثر".

هل يمكن للمقاومة العنيفة أن توقف تمدد الذكاء الاصطناعي؟

تحول تاريخ 30 نوفمبر 2022 إلى يوم مفصلي في حياة البشرية، ففي هذا التاريخ أطلقت شركة OpenAI برنامج ChatGPT، الذي جسد أول إطلالة للذكاء الاصطناعي التوليدي على العالم، وهو ما أحدث حالة من الذهول بين أوساط المستخدمين، نظراً لقدرات هذه التكنولوجيا فائقة التطور.

ففي غضون خمسة أيام فقط من إطلاقه، أصبح لدى ChatGPT أكثر من مليون مستخدم، لتكرّ بعدها سبحة الشركات، التي أعلنت عن تحقيقها اختراقات واعدة مرتبطة بتطوير الذكاء الاصطناعي التوليدي، وليصبح التقدم في هذا المجال، غير محصور بما قدمته OpenAI بل يمتد ويشمل أيضاً برامج لشركات مثل مايكروسفت وألفابت وميتا وAnthropic و DeepMind وغيرها الكثير.

والآن وبعد مرور نحو عام ونصف العام، لا تزال حالة الذهول التي سببها الذكاء الاصطناعي التوليدي تتفاعل، فكلما تقدم الزمن كلما أثبتت هذه التكنولوجيا، أنها قادرة على التطور، وبالتالي القيام بمهام كانت محصورة فقط بالإنسان، فالذكاء الإصطناعي التوليدي، بات يمثّل إحدى أهم الأدوات التي ستساهم في انتقال الإقتصاد من المرحلة التقليدية، إلى المرحلة الرقمية، ما سيزيد الارتباط بين المؤسسات والآلات، ويؤدي إلى سيطرة الروبوتات على وظائف البشر.

هل يتسبب الذكاء الاصطناعي في تدمير الوظائف؟

ويقول تقرير لبلومبرغ إنه على مدى ثلاثة قرون، تكيّفت سوق العمل مع التكنولوجيات الجديدة، حيث كان الاتجاه السائد هو أن تساهم هذه التكنولوجيات، بزيادة إجمالي فرص العمل، والإنتاجية، وفي نهاية المطاف الأجور، ولكن تبين أن التكنولوجيات الجديدة، تلعب أيضاً دوراً في تدمير بعض المهن، وهو ما أدى إلى اختفاء الكثير من الأدوار الوظيفية، ولكن دون أن يتسبب ذلك ببطالة جماعية، وذلك كون التكنولوجيات التي ظهرت أدت إلى استحداث مهن جديدة.

ومع ذلك، تشير الأدلة الأخيرة حول صدمات سوق العمل، الناجمة عن الأتمتة، إلى أن الآثار السلبية للذكاء الإصطناعي، سوف تتركز جغرافياً وديموغرافياً، في أماكن محددة وهي الأماكن التي يتم فيها، تبني ونشر هذه التكنولوجيا بشكل سريع ودون ضوابط، حيث أن أسواق العمل في تلك الأماكن، ستكون الأكثر تضرراً ولن تتكيف بسلاسة.
وتشير تقديرات أبحاث شركة ماكينزي إلى أنه حتى في غياب الذكاء الاصطناعي التوليدي، فإنه من الممكن أن تتولى الأتمتة مهاماً، تمثل 21.5 بالمئة من ساعات العمل حالياً في الاقتصاد الأميركي بحلول عام 2030، أما مع وجود الذكاء الاصطناعي، فسترتفع هذه النسبة إلى 29.5 بالمئة، إذ من المرجح أن يتقلص التوظيف في الوظائف الإدارية في جميع المجالات، من مهنة المحاماة إلى مهنة الترفيه.

وفي حال استمرار تطور الذكاء الاصطناعي وظهور أجيال جديدة منه أكثر وعياً، يصبح من الممكن الحديث عن نتائج أكبر، حيث قد يكون من غير المنطقي توظيف البشر في أغلب الأدوار الوظيفية.

أما صندوق النقد الدولي فقد حذّر في بداية عام 2024، من أن الذكاء الاصطناعي، قد يؤثر على قرابة 40 في المئة من الوظائف حول العالم، داعياً صناع السياسات إلى الموازنة بعناية، بين إمكانات هذه التكنولوجيا وتداعياتها السلبية.

هل يمكن مقاومة تمدد الذكاء الاصطناعي؟

يتمتع التغير التكنولوجي بتاريخ طويل من إثارة الجدل السياسي والاضطرابات الاجتماعية، لكن المقاومة المنظمة نادراً ما تنجح في منع تبنيه بحسب تقرير لبلومبرغ.

ففي عام 1675 شهدت لندن أعمال شغب عنيفة من قبل عمال النسيج الذين قاموا بتدمير الآلات التي كانوا يخشون أن تدمر سبل عيشهم، وهذا السيناريو تكرر في عدة صناعات على مر التاريخ وفي مختلف دول العالم، إلا أن مقاومة التغيير التكنولوجي عادة ما تكون عديمة الجدوى، إذ يتم دائماً سحق الحركات الاعتراضية بسبب افتقارها للتنظيم.

فمثلاً هناك اليوم 1.3 بالمئة فقط من العاملين في الخدمات المالية في الولايات المتحدة و2.3 بالمئة من العاملين في الخدمات المهنية والتجارية ينتمون إلى النقابات، وهو أقل من المتوسط الوطني الذي يبلغ 10 بالمئة، وفي ظل هذا الافتقار إلى التنظيم، لن يكون أمام الخاسرين من ثورة الذكاء الاصطناعي سوى فرصة ضئيلة للمقاومة ضد تمدد هذه التكنولوجيا.

هل يتكرر سيناريو "النعجة دوللي"؟


ومع ذلك، فإن مقاومة الذكاء الاصطناعي يمكن أن تنجح إذا شعر عامة الناس والنخب بالخوف، ومن الأمثلة الجيدة على ذلك ردود الفعل العنيفة التي حصلت ضد الاستنساخ البشري والهندسة الوراثية، ففي عام 1996، كانت ولادة "النعجة دوللي" في المملكة المتحدة بمثابة أول استنساخ ناجح لحيوان ثديي، ولكن عدم تقبل المجتمع لهذه الفكرة والاعتراض عليها بشدة دفع الولايات المتحدة إلى إقرار قانون حظر الاستنساخ البشري في عام 2003، حيث تم بموجب هذا القانون حظر الاستنساخ التكاثري والاستنساخ البحثي باستخدام الأموال الفيدرالية.

ومع تزايد احتمالات تحوّل الذكاء الاصطناعي التوليدي إلى تكنولوجيا "شبه بشرية" لناحية قدرتها على استنساخ أنماط البشر، قد يتعرض المنظمون والمشرعون لضغوط تدفعهم إلى تقييد استخداماتها، خصوصاً أنه بات بإمكان الذكاء الاصطناعي التوليدي الآن، استنساخ أصوات الأشخاص وحتى أشكالهم، فعلى سبيل المثال، يمكن من خلال هذه التكنولوجيا إنشاء محتوى فيديو أو محتوى صوتي مزيف ينتحل شخصية الأفراد، وهذا ما يدفع البعض للاعتقاد أن سيناريو "النعجة دوللي" لناحية إقرار "قانون حظر الاستنساخ البشري"، يمكن أن يتكرر مع الذكاء الاصطناعي التوليدي.

هل تنجح المقاومة العنيفة؟

ويقول خبير التحول الرقمي رولان أبي نجم، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن ما ينطبق على موضوع الاستنساخ البشري والهندسة الوراثية لا ينطبق بتاتاً على موضوع الذكاء الاصطناعي وذلك نظراً لعدة أسباب، وبالتالي من المستحيل للمقاومة العنيفة أن توقف تمدد الذكاء الاصطناعي في الوظائف، مذكراً بما حصل في عام 1986 عندما حاول الاساتذة وأهالي التلاميذ مقاومة طرح الآلة الحاسبة في الأسواق، على اعتبار أنها آلة تساهم في تراجع المستوى العلمي لدى الطلاب، ولكننا بتنا اليوم في زمن لا يمكن فيه التخلي عن الآلة الحاسبة نظراً لفوائدها على المجتمع.

ويذكّر أبي نجم بما قاله إيلون ماسك في عام 2018 عن أن تكنولوجيا الذكاء الاصطناعي ستكون أخطر من السلاح النووي، فاستخدام هذا السلاح محصور بيد الدول والحكومات، بينما الذكاء الاصطناعي بات وسيلة في يد جميع البشر، حيث يكمن الخطر في تفلت هذه التكنولوجيا وإساءة استخدامها وتطويرها دون أي ضوابط، مشيراً إلى أن أي شخص
أو حتى شركة في العالم يمكن لها العمل على تطوير الذكاء الاصطناعي، في حين أن ذلك لا ينطبق على موضوع استنساخ البشر أو استخدام السلاح النووي.

40 عاماً من المحاولات الفاشلة

ويشرح أبي نجم أنه بعد مرور 40 عاماً على استخدام الإنترنت، لم تنجح أي محاولات لضبط الوضع على الشبكة لناحية وقف الهجمات الخبيثة، رغم جميع الضوابط التي تم إقرارها، وهذا الأمر ينطبق أيضاً على وسائل التواصل الاجتماعي، فالاختراقات وعمليات الاحتيال تتكرر وتتزايد، وهذا الأمر سيتكرر بالنسبة لموضوع الذكاء الاصطناعي، لسبب بسيط جداً وهو أننا نتكلم عن تكنولوجيا مرتبطة بالعولمة وليس لها حدود جغرافية وغير مرتبطة بحكم دولة واحدة، ولذلك فإنه لا يمكن لأي ضوابط أن تكون فعالة بأي شكل من الأشكال.

ويشدد أبي نجم على أن المقاومة العنيفة لن توصل الى أي مكان، ولن توقف تمدد الذكاء الإصطناعي في الوظائف، فالمنافسة الشرسة بين دول العالم مثل أميركا والصين وأوروبا والشركات الكبيرة مثل أمازون وآبل ومايكروسفت وألفابت وأوراكل لتطوير هذه التكنولوجيا يعني الحصول على ذكاء اصطناعي أكثر قوة وانتشاراً في المستقبل، مشيراً إلى أن ما يمكن أن ينجح في هذا المجال هو جعل خورازميات مواقع التواصل الاجتماعي قادرة على التعرّف ومنع إنتشار المحتوى المسيء والمزور الذي يتم إنشائه عبر الذكاء الاصطناعي.

ويؤكد أبي نجم أن الحقيقة تقول إن الذكاء الاصطناعي سيتطور وسيصبح أكثر قوة مما نعرفه حالياً، مشيراً إلى أنه يتم العمل حالياً على تطوير الذكاء الاصطناعي العام، أو ما يعرف بـ AGI وهي تكنولوجيا أخطر بمليارات المرات من الذكاء الاصطناعي الحالي، وحينها ستكون الروبوتات قادرة على أن تقوم بما يفعله البشر تماماً من ناحية التفكير والتحليل.

واقع لا مفر منه

من جهته يقول المطور التكنولوجي جو زغبي، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن أدوات الذكاء الاصطناعي تشق طريقها بسرعة إلى الأعمال الصناعية والتجارية، ولكن في المقابل، فإن هذا التحوّل سيحدث تغييرات كبيرة في طبيعة القوى العاملة، وهذا الأمر لا مفر منه في المستقبل البعيد وليس القريب، مشيراً إلى أن المعادلة واضحة جداً بهذا الشأن فما نراه وسنراه من حركات اعتراضية ضد انتشار الذكاء الاصطناعي في عالم الأعمال، ستنجح بتأخير تمدد هذه التكنولوجيا فقط وليس منعها، فالحركات الاعتراضية التي نراها مثلاً في مجال نقابات السينما والفن في أميركا إيجابية، كونها ستمنح الموظفين المزيد من الوقت للتأقلم مع التغيير المنتظر، وبالتالي سيكون أمام هؤلاء المزيد من الوقت، لاكتساب مهارات جديدة قد تحتاجها سوق العمل مستقبلاً وتكون مرتبطة فقط بالإنسان.

وبحسب زغبي فإن ملايين الوظائف حول العالم، ستكون معرضة للانتقال من يد الإنسان إلى أدوات الذكاء الاصطناعي التوليدي خلال الأعوام العشرة المقبلة، وهذا ما حذرت منه مراجع كبيرة مثل مصرف "غولدمان ساكس"، ولكن تبقى عملية الانتقال السلسة أفضل من حيث النتائج وهذا ما سيمنح البشر الوقت الكافي للتأقلم مع الواقع الجديد وعدم الخوف من الذكاء الاصطناعي التوليدي، وتعلم العمل إلى جانبه، فالأشخاص القادرون على استخدام الذكاء الاصطناعي والتحكم فيه، هم من سيقودون سوق الوظائف مستقبلاً.

فتاة ال16 عاماً تتعرض للإغتصاب على الإنترنت. وأبي نجم يوضح "إزالة الVR Headset كانت كفيلة بحمايتها

يبدو أن الطبيبة البريطانية نينا جين باتيل التي تعرضت للإغتصاب على منصة هورايزن وورلدز من قبل أربع شخصيات رمزية من الذكور وتصويرهم للحادثة، لم تكن الأخيرة. ورغم القيود الشخصية التي أطلقتها شركة ميتا personal boundaries إلاّ أنها لم تكن كافية.

فوفقاً لصحيفة "مترو"، تعرضت فتاة تبلغ من العمر 16 عاماً للإغتصاب من قبل مجموعة من الرجال عبر الإنترنت. وحتى لو لم تتعرض الضحية لأذى جسدي فعلي، إلا أنها عانت من الصدمة النفسية والعاطفية ذاتها الذي يعاني منها الشخص الذي يتعرض للإعتداء في الحياة الحقيقية. والضحية كانت ترتدي سماعة رأس للواقع الإفتراضي (VR) وكانت تتواجد في غرفة افتراضية عندما اعتدى عليها الرجال.

وقد فتحت الشرطة البريطانية تحقيقاً في القضية، إذ أنها تشعر بالقلق من أن هكذا جرائم هي منتشرة على الإنترنت ويتم التستر عليها وعدم الإفصاح عنها. وقال قائد مجلس رؤساء الشرطة الوطنية إيان كريتشلي، خلال التحقيق في حماية الأطفال وإساءة معاملتهم إنّ: "التحول يخلق بوابة للحيوانات المفترسة لارتكاب جرائم مروعة ضد الأطفال".

ولأن كل الأمر يتعلق بوضع سماعات رأس الواقع الإفتراضي VR Headset، يرى المستشار بأمن المعلومات والتحول الرقمي رولاند أبي نجم أنه "بمجرد إزالة VR Headset سينتهي كل شيْ إذ أنّ المستخدم سيعود إلى الواقع". واضاف لموقع سايبرأكس "ليست المرة الأولى التي تحدث فيها هكذا جريمة في عالم الميتافيرس، لكن الشخصيات المستخدمة ضمنها هي ليست حقيقية وبمجرد شعور المستخدم من أن هناك من يقترب من شخصيته أو أنه يتعرض لأي سوء فيكفي أن يعود لواقعه الآمن من خلال الخروج من الواقع الإفتراضي".

وفي ظل الإنتهاكات والإعتداءات التي تحصل على الإنترنت وخاصة ضمن الألعاب الإلكترونية مثل Horizon Worlds و Horizon Venues فلا بد من قوانين رادعة وضابطة لمنع هذه الإعتداءات، لكن حالياً وفي غياب التشريعات هل ستتمكن الشرطة البريطالنية من متابعة القضية وملاحقة المعتدين قضائياً؟ في رأي أبي نجم "لا يوجد جرم إذا لم يكن له مادة جرمية. وحتى الآن لم تسن قوانين خاصة بالميتافيرس".

وإذا كانت الأسئلة تدور حول حق الضحية وحمايتها وحقوقها الإفتراضية، يقول رولاند أبي نجم إنه "يستطيع المستخدم تفعيل خاصية تمنع المستخدمين الآخرين من الإقتراب منه".  إذا ورغم كل المطالبات بتغيير القانون لحماية النساء والأطفال من الأذى في هذه البيئات الافتراضية، فما من حامي للمستخدم ومسؤول عنه في العالم الإفتراضي إلا نفسه.

أمّا أساليب المحتالين والمجرمين الإلكترونيين، فهي بسباق متوازٍ مع تطور التكنولوجيا وتفاقمها. ويشكل الوعي والتوعية السيبرانية الركيزتين الأساسيتين لصد أي محاولة إعتداء أو إحتيال إلكتروني.

لقراءة القابلة على موقع CyberEx إضغط هنا

The financial situation behind Musk’s Twitter actions

Roland Abi Najem, information security and digital transformation consultant, attributed the recent measures taken by the American businessman Elon Musk, CEO of the social networking platform “Twitter”, to 3 main reasons, all of which aim to improve the company’s financial position, in addition to his endeavor to adjust the market value of the company he acquired last year. The past amounted to 44 billion dollars, which later declined to about 21 billion dollars only.

Abi Najem said in an intervention with the Business Session program on Qatar TV that Elon Musk is a businessman and his main business is business and using money to reap more profits, but when he bought Twitter, its estimated value was about $44 billion, but it fell to $21 billion with daily losses estimated at $4. Millions of dollars.

He added that the main reason for the recent actions is due to Musk’s reneging on a deal with Google Cloud worth $100 billion, which in turn facilitates seeing the number of tweets for users, in addition to what it offers by enabling them to browse everything they want on the platform, in addition to other advantages, including data storage and anti-tweet services. Spam and account protection, in addition to facilitating access to useful statistics for content makers about their tweets using Google Cloud, as well as developing a platform for measuring the performance of ads on Twitter, in addition to helping users find audio discussion spaces that suit their interests and to save this cost. By not completing the contract with them.

Data extraction
Another reason, Abi Najem said, is the “extreme levels” of data mining that polling and benchmarking companies, along with artificial intelligence companies such as OpenAI, creators of the ChatGBT chatbot, use Twitter data to train models with. Its voluminous language is what prompted Musk to limit viewing of tweets and to require companies to pay to withdraw a certain number of tweets.

Subscriptions
The technical expert also indicated that Musk seeks through this step also to force users to subscribe to the paid “Twitter Blue” service, which allows them to browse more tweets of up to 6 thousand tweets for $ 8 per month, which ultimately contributes to increasing the income resources of the company that It aims to achieve profits as any investment project.
Abi Najem stressed that the aim behind these decisions and procedures is to reduce costs and secure sources of income for the company to ensure its continuity.

شريحة إلكترونية في الدماغ… أخطر من السلاح النووي

وضع الملياردير إيلون ماسك جدولًا زمنيًا لشركته بعدما حصلت على إذنٍ أميركي رسمي بإجراء تجارب بشرية في شأن زراعة شريحة في الدماغ البشري، ‏من أجل علاج مُختلف الحالات الجسدية.‏ وأعلن أنّ أوّل اختبار لزرع الشريحة سيكون في وقت لاحق من العام الحالي.

كما أوضح أن شركته ستزرع الشريحة الإلكترونية في دماغ مريض مُصاب بشلل نُصفي أو كلّي، من أجل مُساعدته على التواصل مع أحبائه. كما أبدى اقتناعه بأنّ تطوير شريحة الدماغ يُمكن أن تُساعد المكفوفين على استعادة نظرهم، أو حتى السماح بتبادل البيانات بسرعة عالية مع الأجهزة الذكية. فما هي هذه التقنية؟ وما تأثيراتها؟
كشف المُستشار في أمن المعلومات والتحوّل الرقمي رولان أبي نجم أن "هذه التجربة تكمُن في زرع شريحة في الدماغ البشري، بعد إجراء تجارب عدّة على الحيوانات وتحديداً القرود. وبرزت اعتراضات كثيرة عليها وكانت ممنوعة سابقاً لأن معظم التجارب المنفّذة على الحيوانات مات خلالها أكثر من 1500 قرد. ولم يُعط الترخيص للزرع في دماغ الإنسان. ثم تمّت الموافقة عليه".

وتابع أبي نجم، في حديث لموقع mtv: "يتحكّم الإنسان من خلال دماغه في كل شيء في جسمه. يُعطي الأمر وأعضاء الجسم تُنفّذ هذا الأمر. وفي حالة الشّلل في الأطراف، يُعطي الدماغ الأمر لكنّه لا يصل الى الأطراف".
وقال "إن هذه الشريحة لديها وظائف عدّة من ضمنها مُساعدة الشخص المُقعد على إيصال الأوامر الصادرة من الدماغ الى باقي أطراف الجسم".
وأشار الى وجود "تخوّف من حصول overheating للـchip في الدماغ وردود فعل عكسيّة في الدماغ وطريقة التفاعل معها، كما هناك علامات استفهام عدّة حول الموضوع".

ولفت الى أن "لا شيء يُثبت حتّى الآن اذا ما كانت هذه التجربة ستنجح علمياً أم لا، اذ أنّها قيد التجربة. وينتظر الجميع ردود الفعل الايجابية أو السلبية، اذ هناك تخوّف من أخلاقيات هذا الموضوع واستخدام هذه التجربة بطريقة سلبية والتحكّم عبرها بالإنسان وبدماغه".

وختم أبي نجم قائلاً: "إن ماسك بدأ هذا الموضوع مثلما بدأ chat gpt برامج الذكاء الإصطناعي وكل الشركات تتنافس في هذا المجال لأسباب تجاريّة وماليّة. ولا يوجد قوانين وضوابط لتنظيم القطاع والسيطرة على هذه التكنولوجيا. يتخوّف الجميع من الذكاء الإصطناعي لكونه أخطر من السلاح النووي. وهذا موضوع خطير من مختلف النواحي، وفي حال صدور القوانين لا نعرف مدى التزام الدول بها"

من أين يحصل شات ج.ب.ت على معلوماته؟

من أين يحصل ChatGPT على معلوماته وماذا عن الاختراق الإلكتروني؟… الخبير رولان أبي نجم يكشف معلومات مهمة للـLBCI
يعتبر ChatGPT أو "تشات جي بي تي" واحداً من أهم التطبيقات الحديثة الخاصة بتقنية الذكاء الاصطناعي، وأصبح محور اهتمام الناس في الفترة الأخيرة.

وعلى الرغم من اجتياح هذه التقنية العالم، أسئلة كثيرة يمكن طرحها تتعلق بجودة المعلومات وصدقيتها. فما هي إيجابيات هذه التقنية وسلبياتها؟ وهل يمكن الوثوق بالمعلومات كافة المتوفرة على ChatGPT؟

من هنا، حمل موقع الـ LBCI الإلكتروني هذه الأسئلة وغيرها، وطرحها على الخبير في التحوّل الرقمي وأمن المعلومات رولان أبي نجم.

وفي حديثه مع الـLBCI كشف أبي نجم أنه لا يوجد مصدر محدد أو رسمي للمعلومات التي يقدمها ChatGPT، لافتاً الى أن المعلومات قد تكون من المواقع الإلكترونية أو من الكتب والأبحاث مثلاً.

وأضاف قائلاً: "من هذا المنطلق، لا يمكن الوثوق بمعلومات ChatGPT لأنها قد تكون قديمة نظرًا لأنها غير مطوّرة منذ 2021، ولا يمكن للتقنية أن تطور معلوماتها إلّا بمساعدة المعنيين".

وبالنسبة لموضوعية ChatGPT في تقديم معلوماته، قال أبي نجم: "هذه التقنية تعمل بانحياز لجهة مقابل أخرى، الأمر الذي دفع بالسلطات الصينية الى حظر التطبيق في بلادها بعد انحيازه للولايات المتحدة الأميركية".

وفي سياق متصل، تحدث أبي نجم عن إيجابيات ChatGPT وسلبياته، معتبرًا أن إيجابياته عدّة انطلاقًا من تلخيص الرسائل الإلكترونية أو إرسالها بطريقة مهنية، أو حتى ترجمة المعلومات والتأكد من صدقيتها. وأضاف: "من أكبر سلبيات ChatGPT استخدامه بطريقة خاطئة ومن قبل أشخاص غير مدركين للطريقة التي يعمل بها التطبيق. فلا يمكننا مثلاً استعماله لاستشارات متعلقة بعلم النفس أو المواضيع الطبية، نظرًا لأنه لا يمتلك المعلومات الطبية الوافرة".

أمّا بالنسبة لموضوع التعرّض للاختراق الإلكتروني وسرقة البيانات الشخصية، فكشف أبي نجم لموقع الـLBCI الإلكتروني أن موضوع الاختراق الإلكتروني حدث لأكثر من مرة، وقال: "فقد تعرضت بيانات عدّة للبيع، الأمر الذي دفع بشركة Open AI المالكة لـChatGPT للتعاون مع خبراء موثوق بهم للبحث عن الثغرات الأمنية وتحسينها".

وأكّد الخبير في التحوّل الرقمي وأمن المعلومات رولان أبي نجم للـLBCI أنه "لا يوجد سقف لتطوير تطبيقات الذكاء الإصطناعي مثل ChatGPT، وأن خبراء عدّة طالبوا بتوقيف تطوير الذكاء الإصطناعي للبحث في آلية متعلقة بموضوع الأخلاقيات، نظرًا لعدم وجود ضوابط تحدّه". وتابع أبي نجم قائلاً: "وفي حال قررت دولة معيّنة وضع ضوابط قانونية وتشريعية، يجب دراسة قدرة المشرعين فيها على فهم التطبيقات ووضع التشريعات المناسبة لها".

وتطرّق أبي نجم في حديثه الى موضوع الاختصاصات الأكثر تأثرًا بـChatGPT، معتبرًا أن كل القطاعات ستتأثر ولكن بشكل نسبي، وأكثرها التي تعتمد على العمل الروتيني، مثل الترجمة، الكتابة، وصناعة المحتوى على مواقع التواصل الاجتماعي وغيرها من الاختصاصات الخاصة بتصميم الصور والفيديوهات… كما اعتبر أبي نجم أن الأقل تأثرًا هم الأطباء على اختلاف اختصاصاتهم.

رولاند أبي نجم لموقع سايبر أكس: "ستبقى الهجمات الالكترونية متفوّقة على الأمن السيبراني"

"لقد تمّت عمليّة اختراق بياناتكم بنجاح"، "عليكم دفع فدية ماليّة بقمية 10 مليون دولار، أو سيتم بيع هذه البيانات في الشبكات المظلمة"… تتكرّر هذه الرسائل وشبيهاتها في عالمنا الحاضر، فبعد أن وصلت الهجمات الالكترونية إلى ال 1112 في العام 2019، وفقاً لموقع cognyte.com، فقد ارتفعت نسبتها في النصف الأول من عام 2021 إلى ال 1097 هجمة. ومع ازدياد اعتماد الاقتصاد والتجارة العالميان على التكنولوجيا في كافة أشكالها، يتحتّم على الدول والشركات والأفراد التأقلم والتكيّف مع التطور الحاصل، لضمان الاستمرارية. وعلى الرغم من إتاحة التكنولوجيا لنظام اقتصادي أكثر كفاءة، إلّا أنّ العديد من المخاطر باتت تنكشف، مظهرةً أهميّة رفع مستوى الوعي والإضاءة على المشاكل التي قد تطرأ وإيجاد الحلول لها.

واستناداً إلى ما ذكرته وزارة التجارة الأميركية، لقد ارتفعت نسبة التجارة الإلكترونية إلى 16.1 بالمئة من حجم التجارة العالمية في الربع الثاني من العام 2020، في حين أنها لم تتعدَّ ال 10.8 بالمئة في الفترة ذاتها من العام 2019. ومع ارتفاع نسبة استخدام الوسائط الالكترونية ازدادت المخاوف من أخطار التحول الحاصل. وأضاء تقرير المخاطر العالمية 2020 الصادر عن منتدى الاقتصاد العالمي، بشكلٍ واضح على مخاطر الجرائم السيبرانية، حيث تم تصنيفها كواحدة من أكبر خمسة أخطار تهدّد الاقتصاد العالمي. ما يشير إلى أهمية الأمن السيبراني في مستقبل العلاقات التجارية بين الشركات والمستهلك وعلى الاقتصاد بشكلٍ عام.

لكن هل سنصل إلى يوم يكون فيه الأمن السيبراني مستتب بشكل مطلق؟ يشير الرئيس التنفيذي لشركة ريفوتيبس والمستشار بأمن المعلومات والتحول الرقمي رولاند أبي نجم، في تصريح لموقع "سايبرأكس" إلى أنّه "يستحيل أن نصل إلى مكان تُصبح فيه المعلومات الالكترونية محميّة بنسبة 100%. ولكن علينا دائما أخذ الاحتياط"، سائلاً، "لماذا نشهد الكثير من الهجمات والاختراقات الإلكترونية؟ لأن الحياة أصبحت رقمية ما أمّن للمقرصنين ملايين الأهداف ليخترقوها، فهذا المجال بات كمهنةٍ تدر عليهم ملايين الدولارات. حتى أن خدماتهم أصبحت قيد العرض والطلب، كي يقوموا بمهام خاصة. وقد باتوا يتمتعون بتقنية عالية."

ومع التحوّل الحاصل في أساليب العمل والاعتماد التام على الوسائل التكنولوجية، بالإضافة إلى انتشار ظاهرة العمل عن بعد، تخطت كلفة الهجمات السيبرانية على الاقتصاد العالمي مبلغ التريليون دولار أميركي في العام 2020، ما بات مؤشراً واضحاً على ازدياد وتكرار هذه الهجمات وتطور تقنياتها. ويعتبر أبي نجم أنّ "المساعي الدولية باءت بالفشل، على الرغم من محاولة إنشاء قمة من ثلاثين دولة منها الولايات المتحدة الأميركية، بهدف إيجاد حلول خاصة لهجمات الفدية ولأنواع الهجمات الإلكترونية الأخرى، إلّا أن الدول المتهمة بامتلاك مجموعات القرصنة المنظمة والطالبة للفديات، لم تكن مدعوة أو مشاركة في القمة. كما أنها نكرت صلتها بهذا الموضوع. ومن الطبيعي أنها لم ولن تسلم مواطنيها المتهمين بالعمليات الالكترونية الاحتيالية"، مؤكداً على أن "المشكلة الأولى تكمن بعدم وجود قوانين تنظيمية تشمل جميع الدول. والمشكلة الثانية هي أنّ الأمن السيبراني ليس موضوع تقني بحت ويُمكن معالجته. بل هناك مجموعة عوامل بدءاً من ال supply chain attack أو استهداف المقرصنين للشركات المتخصصة بالأمن السيبراني التي يجب أن تؤمن الحماية للشركات الأخرى. أما المشكلة الثالثة فهي الهندسةالاجتماعية واستغلال أخطاء الموظفين أو مستخدمي الشبكة وهو أمر لا يُمكن الحؤول دون حصوله". وفي مثالٍ على ذلك ذكّر الرئيس التنفيذي لشركة ريفوتيبس والمستشار بأمن المعلومات والتحول الرقمي رولاند أبي نجم بالهجوم الذين تعرض له البيت الأبيض في الولايات المتحدة الأميركية عام 2016، في حين أنه يجب أن يمتلك أعلى درجات الحماية الالكترونية وأرفع مستوى من الوعي والمعرفة لدى موظفيه، إلا أنّه "بعد الهجوم قام المسؤولون عن قسم الأمن_السيبراني في البيت الأبيض بإنشاء بريد إلكتروني تصيدي وأرسلوه إلى مجموعة من الموظفين. وتضمّن البريد رسالة تطلب عدم الضغط على رابط مرفق، إلّا أن 5% من الفئة المختبرة قامت بالضغط على الرابط قبل التأكد من المعلومات الواردة". مضيفاً أنّ "المشكلة الرابعة هي ما يُعرف بال zero click attack أو هجوم النقرة صفر وهو الهجوم الذي يعرض الحاسوب أو الهاتف الذكي إلى الاختراق بمجرد ورود رسالة احتيالية. وقبل أن يقوم المستخدم بفتحها أو النقر عليها".

أما عن سبل الحماية من الهجمات الالكترونية، فيشير أبي نجم إلى أنّه "من المهم إبقاء الأجهزة محمية ومحدّثة، إلّا أنّه حتى ال antivirus لا يوفر عمليّة حماية مطلقة، لأنه لا يعتبر عمليّة استباقية، بل هو رد فعل على الهجمات الالكترونية. وبين حصول الهجوم الالكتروني ونشر الفيروس وحتى اكتشافه وتصنيع لقاح له، تكون عمليات الإختراق والقرصنة قد تمت، ما حذا ببعض الشركات بمحاولة تطوير نفسها والعمل على سلوك ال virus أو ما يُعرف بال zero day attack ولم ينجحوا بمكان معين لأن المخترقين أكثر ذكاء". لتبقى الوسيلة الأنجح في الحماية من الهجمات الالكترونية وفقاً لـ أبي نجم ما أطلَقَ عليه مصطلح "think before you click أو التفكير قبل الضغط على أي رابط أو موقع إذ إن أغلب المصائب تقع بسبب ضغطة واحدة خاطئة أو متسرعة، فالتأكد من مصادر المعلومات والوقاية والخبرة تحذّر وتحمي. ويبقى التبليغ عن الهجمات والاختراقات، في حال حصولهما، خطوة ضرورية مهمة وتوعوية."

لطالما انتشرت مقولة "درهم وقاية خير من قنطار علاج" على الصعيدين الصحي والطبي، إلا أنها باتت تنطبق اليوم على صحة أجهزتنا وبيئتنا الالكترونية في حياتنا العملية والخاصة. وللحفاظ على أعلى درجات الأمان والحماية ولعدم التعرض للاختراق، يجب على كافة مستخدمي الأجهزة الالكترونية والانترنت، الإطلاع الدائم على كافة المستجدات وعلى الصعيدين التكنولوجي والسيبراني حتى لا نندم عندما لا ينفع الندم.

The Impact of AI on Cybersecurity: Insights from Roland Abi Najem, CEO of Revotips

Telecom Review Africa recently conducted an exclusive interview with Roland Abi Najem, CEO of Revotips, to discuss the impact of artificial intelligence on the cybersecurity landscape. The interview covered a range of topics, including the ways in which AI has contributed to the proliferation of cybersecurity threats and how it can be used to improve cybersecurity awareness and training for employees. In addition, Mr. Najem discussed the specific technologies that Revotips is prioritizing in 2023 to strengthen cybersecurity systems, as well as the solutions and services the company is focusing on to address potential cybersecurity challenges. Finally, he shared some of the goals and future plans that lie ahead for Revotips in the rapidly evolving field of cybersecurity.

How has the proliferation of AI added to the cybersecurity threat landscape?

The proliferation of AI has significantly impacted the cybersecurity threat landscape in various ways, making it more complex and challenging to manage. AI eliminated many barriers to entry to cyberattacks and made it easier for almost everyone to use AI tools like ChatGPT to create a scam email or message, check certain codes for security holes, use deep fake technology to mislead their victims, and so on. Moreover, AI-powered tools can help cybercriminals automate the generation of malware, phishing emails, and other malicious content. These tools can adapt and evolve rapidly, making it harder for traditional security solutions to detect and counteract them.

What made those threats worse is that, currently, there are no rules or regulations to govern all aspects of AI since governments are still struggling to find the proper rules to control cyber-attacks before AI; now, things are becoming more complicated with AI.

How can AI be used to improve overall cybersecurity awareness and training for employees?

AI can be employed in multiple ways to improve cybersecurity awareness and employee training, mainly by personalizing the training where AI can analyze each employee's learning patterns, strengths, and weaknesses to create personalized training modules that cater to their specific needs. This ensures a more effective learning experience and improves the retention of crucial information.

Moreover, AI can be used to create engaging, interactive, and game-based training exercises that encourage employees to participate actively in the learning process. This can include simulations, quizzes, and virtual environments where users can practice responding to cyber threats in a safe and controlled setting.

Additionally, AI-powered training platforms can adjust the difficulty and content of training modules in real time based on an employee's progress and performance. This helps to maintain an appropriate level of challenge and keeps employees engaged and motivated throughout the training process.

As for the KPIs, AI can provide real-time feedback to employees during training exercises, enabling them to learn from their mistakes and improve their understanding of cybersecurity concepts and best practices. AI can analyze employee behavior, such as their interactions with emails, websites, and applications, to identify potential risk areas and provide targeted training to address those vulnerabilities.

What technologies are Revotips prioritizing in order to strengthen cybersecurity systems in 2023? And what solutions and services are Revotips focusing on to address potential cybersecurity challenges, particularly AI-based threats, in the coming years?

Seeing as there is no one solution that fits all in cybersecurity, that’s why our key added value in Revotips is that we always work on Security Assessments for organizations to provide them with the best solutions that fit them, taking into consideration their financial capabilities, their team expertise and potential, etc. Our Research and Development team at Revotips works daily to stay up-to-date with the latest cybersecurity threats and to strengthen cybersecurity systems to provide the ultimate protection, considering that there is nothing called 100% secure in cybersecurity. Based on this fact, the purpose is to enhance the protection against cyberattack and reduce the detection time.

Nowadays, Artificial Intelligence (AI) and Machine Learning (ML) should be integrated with all your security systems since they can enhance threat detection, response, and prediction capabilities. These technologies can help detect unknown threats and develop proactive defenses by analyzing vast [amounts of] data and identifying patterns.

Moreover, since we can only partially secure, especially with the increase of security threats due to the rise of AI, we always work on building the Zero Trust mindset and Zero Trust Architecture, which requires verification of every user, device, and connection before granting access to resources. This reduces the attack surface and helps prevent unauthorized access to critical systems and data.

Implementing MFA can always remain a key point in enhancing security since it reduces the risk of unauthorized access to systems and data by requiring multiple forms of verification, such as passwords, tokens, biometrics, or other factors, before granting access.

EDR solutions are also key elements in cybersecurity since they continuously monitor and analyze endpoint activities. Cloud Security, Security Orchestration, Automation, and Response (SOAR) are all key elements of cybersecurity.

As with the advanced threat of AI, the focus should be on increasing training and awareness for the technical and non-technical people in the organization since 95% of cyberattacks are caused by human errors. Scammers are using the latest AI technology nowadays, like Deep Fake, professional scam emails, and many other ways to scam employees. Investing in technology only without investing in your people will lead nowhere.

What goals and future plans lie ahead for Revotips?

The cybersecurity industry is becoming really challenging due to so many factors. One main factor is AI-based threats, but there are so many other factors, like the current economic crisis, where many organizations are losing lots of money and can’t invest in cybersecurity.

At the same time, hackers are getting more advanced with high capabilities, and it is becoming much more difficult to stop them.

Based on the above, Revotips’ future plans are to always work on finding the most case-specific suitable solutions and support the organizations with the best affordable prices they can pay, and this is really challenging.

Moreover, we are working at Revotips on many automated solutions that can support the end users in identifying a security threat. One of those solutions is SEPA — Smart Email Protect Alert — which is an add-on that can identify a security threat in any email, and it can be integrated with any spam filter or any other email protection system.

The main purpose of such plans is to facilitate the detection of any threat and help the end user identify it.

To read the article of Telecom Review press here

الهواتف الذكية: هل تسترق السمع الى حديث مستخدميها؟

يشتكي بعضُ مستخدمي الهواتف الذكية من أن أجهزتهم تتنصت عليهم وتستمع الى أحاديثهم، والدليل: ظهور إعلانات ومنشورات على صفحات مواقع التواصل الاجتماعي مثل انستغرام وتيك توك حول المواضيع التي أثاروها مع محيطهم! ويكفي، بحسب مؤيدي هذه النظرية، أن يطرح الشخص موضوعاً معيناً بجوار هاتفه الذكي حتى تنهال عليه الإعلانات ذات الصلة، وتمطر عليه المنشورات المرتبطة بالموضوع نفسه.

هذه الجدلية بدأت تأخذ حيزاً من اهتمامات المستخدمين وتثير قلقهم في الفترة الأخيرة وسط المخاوف على خصوصية البيانات والمعلومات الصوتية.

ماذا يقول الخبراء؟
لا شك أن انفجار تقنيات الذكاء الاصطناعي وتضاعُف حجم التكنولوجيا في صناعة الهواتف الذكية ساهما في توسّع رقعة النقاش وإتاحة المجال أمام الكثير من التحليلات والدراسات والتفسيرات وحتى الاعتقادات الخاطئة. فهل تسترق الهواتف الذكية السمع فعلاً الى أصحابها؟

هذا السؤال حمله “المراقب” الى مستشار أمن المعلومات والتحول الرقمي رولان أبي نجم، الذي أكّد أن الجواب ليس نعم أم كلا ببساطة وذلك لأن المسألة ترتبط بالتطبيقات الموجودة على الهاتف وليس بالجهاز بحد ذاته.

وشرح أن بعض التطبيقات غير معروفة المصدر وغير التابعة لشركات عالمية موثوق بها يمكن أن تتنصت على أصحابها إذا أعطاها الأخير الإذن بالوصول الى الميكروفون واستعماله، لافتاً الى أن هذه العملية تحصل أكثر على الأجهزة التي تعمل بنظام تشغيل آندرويد لأنه من السهل أن يقوم أي مطوّر أو مقرصن بوضع تطبيقات جاهزة للاستخدام على play store، خلافاً لحال الأجهزة التي تعمل بنظام iOS. وهنا يوضح الخبير أن أجهزة آيفون تعطي المستخدم إشارة ضوئية في أعلى الشاشة عند تشغيل الميكروفون (وكذلك الأمر بالنسبة للكاميرا) وهذا ما يساعده على التنبه وبالتالي حماية بياناته عند الحاجة.

ولفت أبي نجم الى أن إمكانية حصول “تنصت” عبر تطبيقات مجهولة المصدر تنطبق على كل الأجهزة الذكية التي تحتوي أنظمة تشغيلية (آندرويد أو iOS أو غيرهما) ومتصلة على الانترنت، بما في ذلك التلفزيون والـtablet.

وعن سبب ظهور إعلانات تجارية مرتبطة مباشرة باهتمامات المستخدمين وفحوى أحاديثهم، أكّد أبي نجم أن هناك سوء فهم لهذه الظاهرة، شارحاً أن شركات الإعلانات تعتمد على ما يسمى مبدأ “الـlookalike audience” او “الاشخاص ذوو الاهتمامات المشتركة” بمعنى أن الاشخاص الذين يجتمعون في الموقع نفسه (يمكن تتبع موقع المستخدمين عبر خاصية الـlocation) يُعتبرون أنهم يتشاركون الاهتمامات نفسها الامر الذي يؤدي الى ظهور اعلانات ناتجة عما بحث عنه الشخص الأول على هاتف الشخص الثاني. وبالتالي فإن هذه الظاهرة في معظم الأحيان تأتي نتيجة الأصدقاء المشتركين والأماكن المشتركة.

دراسة مثيرة للقلق
في المقابل، أظهرت دراسة أجرتها شركة NordVPN المتخصصة بأمن المعلومات أن التتبع عبر الأجهزة و الهواتف الذكية منتشر بشكل واسع وهو يُستخدم لإنشاء ملفات تعريف خاصة بالمستخدمين عبر أجهزتهم، مما يساعد المسوّق على فهم العميل بشكل أفضل واستهدافه بشكل أكثر فعالية.

ووفقًا لـ NordVPN، فإن هذا النظام يتضمن عدة تقنيات وأكثرها إثارة للقلق هو استخدام إشارات الموجات فوق الصوتية وهي عبارة عن أصوات غير مسموعة تحتوي على بيانات مشفرة ومن خلالها يمكن لجهاز الاستماع أن يتلقى المعلومات. واللافت أن هذه الاشارات لا يمكن للبشر سماعها لأن ترددها مرتفع جدًا.

على سبيل المثال، إثناء مشاهدة المستخدمين للتلفزيون يظهر إعلان عن معجون الأسنان مثلاً. هذا الإعلان يحتوي، دون علم المستخدمين، على إشارات فوق صوتية، يسمعها الميكروفون في الهواتف الذكية (إذا كان المستخدم قد منحه الأذونات الصحيحة) وبالتالي عند تصفح وسائل التواصل الاجتماعي يلاحظ المستخدمون مرور الإعلان نفسه الذي شاهدوه تواً على التلفزيون. صدفة؟ لا ، إنه تسويق متقدم للغاية ومتقن بحسب ما تقوله الشركة.

داتا الصوت بخطر.. Siri وAlexa “متواطئتان”؟
وسط الزوبعة التكنولوجية الكبيرة والتساؤلات حول أمن البيانات الصوتية، “يقف” المساعدون الافتراضيون في صلب هذا النقاش، ولعل أشهرهم Siri الخاصة بنظام iOS وAlexa الخاصة بنظام آندرويد.

وتعليقاً على هذا الموضوع اعتبر أبي نجم أن استخدامهما يتضمن مخاطر عالية جدا خصوصاً مع وجود الـdeep fake والذكاء الاصطناعي وتزوير الاصوات بالوقت الراهن، وقال لـ”المراقب”: “إذا كان المستخدم يعتمد على تقنية الـ voice recognition أو البصمات الصوتية في حياته اليومية، فهناك احتمال أن يُستعمل صوته لتنفيذ عمليات احتيال وذلك بحال وجود تطبيقات مقرصَنة على هاتفه (المُشار إليها سابقاً) أو من خلال أساليب جمع المعلومات عن الصوت.”

ما السبيل الى الحماية؟
من المؤكد أن لا حماية بنسبة 100%، بحسب أبي نجم، وكل ما يمكن للفرد أن يفعله هو التخفيف من المخاطر، وذلك يتم عبر الخطوات التالية:

الامتناع عن تحميل تطبيقات مجهولة المصدر والتحقق من الشركة التي تقف خلف أي برنامج يريد الفرد استخدامه على الهاتف الذكي
حُسن إدارة إعدادات التطبيقات (settings) خصوصاً لجهة إعطاء الإذن باستعمال الميكروفون من عدمه
عدم اعتماد المساعدين الافتراضيين قدر الامكان
عدم اعتماد تقنية الـ voice recognition
التحقق من صحة الرسائل أو البيانات الصوتية التي تصل الى هاتف المستخدم فهي مواد غير “مسلّم بها” ويمكن أن يتم التلاعب بها وتزويرها.
الاعتماد على ما يسمى two factor authentification وان يكون لدى الفرد اكثر من مستوى حماية على هاتفه.
باختصار حماية البيانات الالكترونية باتت بمثابة مجهود شخصي على الفرد أن يقوم به في ظل الغيبوبة التي تغرق فيها شركات تصنيع الهواتف وشركات مواقع التواصل الاجتماعي وانشغالهما في جني الأموال وتطوير أساليب الربح التجاري على حساب بيانات المستخدمين.

هل يُمكن مُقاضاة الذكاء الاصطناعي بسبب انتهاكاته؟

بعد تعرض برامج الدردشة الآلية مثل "شات جي بي تي" لسُمعة أشخاص من خلال معلومات "زائفة"، يتحضر مختصون للبحث عن الوسائل القانونية الممكنة لردع هذه برامج مماثلة، ومقاضاة المسؤولين عنها وتعويض الأشخاص المتضررين، فما مدى امكانية مُقاضاة الذكاء الاصطناعي على انتهاكاته؟

أشهر الانتهاكات التي قام بها "شات جي بي تي"

العمدة الأسترالي براين هود، اكتشف أن "روبوت الدردشة" قال عنه زوراً بأنه "متورط في فضيحة رشوة أجنبية"، تشمل شركة تابعة لبنك الاحتياطي الأسترالي في العقد الأول من القرن الحالي، زاعماً أن العمدة الأسترالي قضى فترة بالسجن نتيجة ارتكابه تلك الجريمة.

وقد يكون العمدة الأسترالي صاحب أول دعوى تشهير في العالم ضد شركة "أوبن إي أي"، الشركة التي طورت "شات جي بي تي"، بعدما اتهمه التطبيق بهذه الجريمة.

"المنافسة" هي السبب… ماذا عن مسؤولية الشركات المالكة؟

اعتبر الخبير التقني رولاند أبي نجم في حديث لـ"النهار"، أن السبب الرئيسي للانتهاكات والأخطاء التي تقع فيها برامج "الشات بوت" هو ارتفاع حدة المنافسة بين الشركات المتنازعة في هذا السباق، والتي تتدافع لإطلاق برامج منافسة لـ"شات جي بي تي"، فركزت على المنافسة التجارية أكثر من تطوير الأنظمة نفسها.

وأشار نجم إلى أن هذا السبب هو الذي دفع خبراء التكنولوجيا لطلب توقيف تطوير برامج الذكاء الاصطناعي لفترة 6 أشهر، بهدف حوكمة وضبط هذه الأدوات.

أما عن مسؤولية الشركات التي تُطلق برامج الذكاء الاصطناعي، فأكد أن المسؤولية هنا أخلاقية بالدرجة الأولى، من ناحية مصادر المعلومات المبرمجة داخل البرامج، ومدى واقعيتها وعدم انحيازها أو انحياز الشركات.

قانونياً… هل يمكن مقاضاة الذكاء الاصطناعي؟

وفي هذا الإطار، وبشأن إمكانية مقاضاة مسؤولي الذكاء الاصطناعي، فإن خوارزميات الذكاء الاصطناعي وتطبيقاتها تمتلكها شركات معروفة لدى القانون، وهي المسؤولة عن تطوير هذه الأنظمة وصحة المعلومات التي بُرمجت عليها. لذا فإنه سيتوجب على الجهات المتضررة تقديم الدليل التقني الذي يمكن أن يُنصف الضحايا في هذا المجال ويثبت مسؤولية أو تقصير الشركات المالكة لأنظمة الذكاء الاصطناعي.

ولكن من ناحية اخرى، أكد نجم لـ"النهار" أن المشكلة الأساسية هي أن هذه الأنظمة ما زالت تفتقر إلى الإطار القانوني الذي ينظمها ويحكمها، وأضاف: "هناك مشكلة أخرى تكمن في أن التكنولوجيا وأدواتها دائماً كانت أسرع من المشرعين، الذي يعانون أيضاً من تعقيد وصعوبة في تحديد الجهات المسؤولة في القضايا المرفوعة حالياً في عالم التكنولوجيا".

وعلى صعيد القانون الدولي، هناك بعض العقبات التي قد تعطل إمكانية مقاضاة المسؤولين عن أنظمة الذكاء الاصطناعي، ومنها الخصائص التكنولوجية المميزة لتلك التطبيقات التي تجعل أنظمة الذكاء الاصطناعي غامضة وغير متوقعة، وهو ما يعيق اكتشاف الأسباب والنتائج غير المقصودة لأي أضرار عرضية تحدثها هذه الأنظمة.

بالإضافة إلى ما سبق، فإن الحداثة النسبية للذكاء الاصطناعي واستخدامه داخل المنظمات والمؤسسات والشركات، تجعل من الصعب مقارنة إقرار المسؤولية والمساءلة الدولية عن منتجي ومبرمجي ومشغلي الأنظمة.

وأما للتخفيف من الانتهاكات التي قد تقوم بها برامج المحادثة مثل "شات جي بي تي"، فاعتبر نجم أنه من الأفضل أن تُعرض هذه البرامج على جهات رقابية معينة قبل اطلاقها للتأكد من أهليتها، وهو ما لا يحصل حتى الآن.