IS turns to artificial intelligence for advanced propaganda amid territorial defeats

WASHINGTON —
With major military setbacks in recent years, supporters of the Islamic State terror group are increasingly relying on artificial intelligence (AI) to generate online propaganda, experts said.

A new form of propaganda developed by IS supporters is broadcasting news bulletins with AI-generated anchors in multiple languages.

The Islamic State Khorasan (ISKP) group, an IS affiliate active in Afghanistan and Pakistan, produced in a video an AI-generated anchorman to appear reading news following an IS-claimed attack in Bamiyan province in Afghanistan on May 17 that killed four people, including three Spanish tourists.

The digital image posing as an anchor spoke the Pashto language and had features resembling local residents in Bamiyan, according to The Khorasan Diary, a website dedicated to news and analysis on the region.

Another AI-generated propaganda video by Islamic State appeared on Tuesday with a different digital male news anchor announcing IS’s responsibility for a car bombing in Kandahar, Afghanistan.

“These extremists are very effective in spreading deepfake propaganda,” said Roland Abi Najem, a cybersecurity expert based in Kuwait.

He told VOA that a group like IS was already effective in producing videos with Hollywood-level quality, and the use of AI has made such production more accessible for them.

“AI now has easy tools to use to create fake content whether it’s text, photo, audio or video,” Abi Najem said, adding that with AI, “you only need data, algorithms and computing power, so anyone can create AI-generated content from their houses or garages.”

IS formally began using the practice of AI-generated news bulletins four days after an attack at a Moscow music hall on March 22 killed some 145 people. The attack was claimed by IS.

In that video, IS used a “fake” AI-generated news anchor talking about the Moscow attack, experts told The Washington Post last week.

Mona Thakkar, a research fellow at the International Center for the Study of Violent Extremism, said pro-IS supporters have been using character-generation techniques and text-to-speech AI tools to produce translated news bulletins of IS's Amaq news agency.

“These efforts have garnered positive responses from other users, reflecting that, through future collaborative efforts, many supporters could produce high quality and sophisticated AI-powered propaganda videos for IS of longer durations with better graphics and more innovation techniques,” she told VOA.

Thakkar said she recently came across some pro-IS Arabic-speaking supporters on Telegram who were recommending to other supporters “that beginners use AI image generator bots on Telegram to maintain the high quality of images as the bots are very easy and quick to produce such images.”

AI-generated content for recruitment

While IS’s ability to project power largely decreased due to its territorial defeat in Syria and Iraq, experts say supporters of the terror group believe artificial intelligence offers an alternative to promote their extremist ideology.

“Their content has mainly focused on showing that they’re still powerful,” said Abi Najem. “With AI-generated content now, they can choose certain celebrities that have influence, especially on teenagers, by creating deepfake videos.”

“So first they manipulate these people by creating believable content, then they begin recruiting them,” he said.

In a recent article published on the Global Network on Extremism and Technology, researcher Daniel Siegel said generative AI technology has had a profound impact on how extremist organizations engage in influence operations online, including the use of AI-generated Muslim religious songs, known as nasheeds, for recruitment purposes.

“The strategic deployment of extremist audio deepfake nasheeds, featuring animated characters and internet personalities, marks a sophisticated evolution in the tactics used by extremists to broaden the reach of their content,” he wrote.

Siegel said that other radical groups like al-Qaida and Hamas have also begun using AI to generate content for their supporters.

Cybersecurity expert Abi Najem said he believes the cheap technology will increase the availability of AI-generated content by extremist groups on the internet.

“While currently there are no stringent regulations on the use of AI, it will be very challenging for governments to stop extremist groups from exploiting these platforms for their own gain,” he said.

To read the full article on VOA news website click here

The Dark Web Explained: How Does It Work And Why Is It So Dangerous?

Approximately 5 billion people use the internet today, browsing hundreds of millions of accessible websites across various fields.

However, what many people do not know is that the internet has another face, and what they see is the "tip of the iceberg" and what hides beneath it is a massive collection of data and an economy that cannot be easily accessed or tracked.

This side of the internet is known as the Deep Web, which includes the Dark Web, a term that has been widely circulated in the Arab world recently following incidents involving teenagers, especially in Egypt and Lebanon, where the use of the dark web was discussed.

The first thread
In April, the Egyptian Public Prosecution announced the arrest of a young man on charges of killing a teenager and stealing his organs in the Shubra area of Cairo.

However, the prosecution revealed more bizarre details in its shocking investigations, including that the suspect filmed his crime live for the benefit of another teenager living in Kuwait. The purpose of filming was to sell the video to enthusiasts of such scenes on the dark web, in exchange for substantial amounts of over $106,000 (EGP 5 million).

The investigations state that uncovering this crime represents the "first thread" in a larger network for selling videos of this kind, which may reveal a larger network for selling and trading human organs.

In Lebanon, the dark web made headlines after investigations revealed a network involving more than 17 people, including celebrities on the TikTok app, who lure and sexually assault children, film the videos, and sell them on the dark web for substantial amounts.

These crimes have raised several questions about the dark web: What is being bought and sold through it? What is the volume of trade on it? And how can its users, who are committing crimes, be caught?

How can the dark web be accessed?
The internet is divided into three levels, according to cybersecurity expert Etay Maor from IBM. These include the clear net, which includes openly accessible websites like Wikipedia, Google, and others.

The deep web, which consists of encrypted sites that can only be accessed with a subscription or a password, such as personal email accounts on Gmail or Outlook, personal Netflix accounts, and websites not indexed by Google that can be accessed through secret links circulated within intelligence agencies and others.

The third level is the dark web, according to Maor, and it cannot be accessed using the same methods as the previous two levels.

First appearance
The dark web first emerged in the late 1990s as a secret network created by the US military for secure and anonymous communication with its intelligence clients.

The dark web cannot be accessed through regular browsers like Apple Safari or Google Chrome. Instead, it requires special browsers like Onion and Tor.

It does not use regular URL addresses and links having "www" or "com" symbols. Instead, it uses specific letters and symbols that are circulated among users of these sites to prevent widespread visibility.

Maintaining the secrecy and privacy of dark web users is essential, so they use virtual private network (VPN) technologies and hide their unique internet protocol (IP) addresses to avoid tracking.

Multi-billion dollar economy
According to academic definition, the dark web refers to a part of the internet intentionally hidden from view for illegal reasons, Asim Jalal, a consultant in management sciences and information technology at G&K, told Forbes Middle East.

The activities known to be available on the dark web include drug trafficking, arms trading, the sale and distribution of child pornography, as well as videos depicting human and animal torture, and other ethical deviations.

Jalal also points out that cybercrimes thrive on the dark web, where stolen credit card data and bank accounts are bought and sold.

The exact volume of trade conducted on the dark web cannot be accurately determined, according to Jalal, but estimates place the volume of transactions between $1 billion and $2 billion.

The impact and losses from cybercrimes, some of which are carried out through the dark web, are estimated at around $10.5 trillion, according to Jalal.

In May 2023, European law enforcement (Europol) arrested 288 suspects in 9 countries around the globe who were operating a website called Monopoly Market on the dark web. They seized around $54 million and 850 kilograms of drugs, as well as 117 firearms.

Europol states that the investigations into the Monopoly Market network took approximately 18 months and involved hundreds of local investigations in the countries involved. This effort also led to the shutdown of another site called Hydra Tor, which generated revenues worth $1.3 billion.

Cryptocurrencies are the key
Jalal said that cryptocurrencies are the preferred method of transaction on the dark web, due to the difficulty in tracing the parties involved and identifying their identities.

He added that cryptocurrencies ensure privacy and anonymity for users, making it challenging to trace the owners unlike bank transfers between individuals or cash transactions that require physical presence.

According to the cryptocurrency research company Chainalysis, the volume of transactions with cryptocurrencies used for illegal purposes such as fraud, terrorist financing, and ransomware, some of which occur on the dark web, amounted to at least $24.2 billion in 2023.

However, Jalal points out that dark web users have resorted to other tactics to conduct their transactions, such as offering public bank grants or donations without linking them to the goods and services they receive via the dark web, which increases the difficulty of regulating these transactions.

Can criminals be tracked on the dark web?
In October 2013, the US Federal Police arrested Ross Ulbricht, more than two years after he founded a site called "Silk Road" on the dark web.

The site facilitated the buying and selling of drugs, weapons, forged identity cards and driver's licenses, and other illegal goods.

Research estimated transactions with cryptocurrencies on the Silk Road to be around 1.35 million bitcoins (equivalent to $270 million based on the average bitcoin price in 2013 of $200).

This amount of bitcoin used on the Silk Road site represents 4.5% of the total of 29.6 million bitcoins traded across cryptocurrency exchanges in 2013, according to a study conducted by Carnegie Mellon University in 2012.

Capturing suspects on the dark web is "a long and complex process, it may take years, but it's not impossible," according to Cyber Security & Digital Transformation Consultant Roland Abi Najem, who provided us with the following information:

Dark web transactions use cryptocurrencies like Bitcoin because they don't reveal the identity of their owners, and all that can be known is the account ID on the blockchain network.

Authorities can blacklist those suspicious cryptocurrency account IDs and track transactions conducted through them in the past or in the future, whether by converting cryptocurrencies to another account or converting them to cash, and then uncover the identities of their owners.

A couple was arrested in the US in 2022 for stealing cryptocurrencies worth $4.5 billion after a 5-year investigation, and the Russian REvil ransomware network, was busted in 2022, which required rare cooperation between US and Russian intelligence a month before the outbreak of the war in Ukraine.

According to Jalal, the most widespread method is investigators impersonating as buyers or sellers of illegal goods and commodities on the dark web in order to identify and capture the perpetrators operating through it.

However, capturing and shutting down dark web networks may take a long time, Jalal added, due to the lack of a map or comprehensive network, as it requires extensive investigation. It's also difficult to detect and neutralize spyware programs that are continuously developed and steal data for sale on the dark web.

Abi Najem advises raising awareness about the dangers of the dark web, noting the legislative and legal challenges in controlling it.

Some people, especially teenagers and young adults, use the dark web to access games and applications for free, according to Abi Najem, however "There's nothing free.. these applications may carry spyware and data breaches resulting in greater harm," he adds.

مليارات يجري تداولها عبر الدارك ويب.. ما الذي يباع في الجانب المظلم من الإنترنت؟

يستخدم نحو 5 مليارات شخص الإنترنت اليوم، ويتصفحون مئات الملايين من المواقع التي يسهل الوصول إليها في مختلف المجالات.

لكن ما لا يعرفه كثير هو أن للإنترنت وجهًا آخر، وأن ما يرونه هو "قمة جبل الجليد" التي تخفي تحتها مجموعة ضخمة من البيانات واقتصادًا موازيًا لا يمكن الوصول إليه أو تتبعه بسهولة.

ويُعرف هذا الجانب بالإنترنت العميق "الديب ويب" Deep Web الذي يضم الإنترنت المظلم "الدارك ويب" Dark Web، وهو مصطلح جرى تداوله كثيرًا في العالم العربي خلال الفترة الماضية بعد حوادث طالت مراهقين خصوصًا في مصر ولبنان، وجرى الحديث عن استخدام الانترنت المظلم فيها.

أول الخيط
في أبريل/نيسان الماضي، أعلنت النيابة العامة المصرية القبض على شاب بتهمة قتل مراهق وسرقة أعضائه في منطقة شبرا بالقاهرة.

لكن النيابة كشفت في تحقيقاتها الصادمة عن تفاصيل أكثر غرابة، تضمنت أن المتهم صور جريمته على الهواء مباشرة لصالح مراهق آخر يعيش في الكويت، وأن الهدف من التصوير بيع الفيديو لهواة تلك النوعية من المشاهد على الدارك ويب مقابل مبالغ طائلة تصل إلى 5 ملايين جنيه مصري (105.6 ألف دولار).

وأكدت التحقيقات أن الكشف عن الجريمة يمثل "أول الخيط" في شبكة أكبر لبيع فيديوهات من تلك النوعية، وقد تكشف عن شبكة أكبر لبيع الأعضاء البشرية وتجارتها.

وفي لبنان، تصدر الدارك ويب العناوين بعدما كشفت التحقيقات عن شبكة تضم أكثر من 17 شخصًا بينهم مشاهير على تطبيق تيك توك، يستدرجون الأطفال ويغتصبونهم، ويصورون الفيديوهات لبيعها على الدارك ويب مقابل مبالغ طائلة.

وطرحت تلك الجرائم تساؤلات عدة عن الإنترنت المظلم، ما الذي يباع ويشترى من خلاله؟ وما حجم التجارة عليه؟ وكيف يمكن ضبط رواده من مرتكبي الجرائم؟

كيف يمكن الدخول إلى الدارك ويب؟
ينقسم الإنترنت ثلاثة مستويات وفق إيتاي ماور خبير الأمن في شركة IBM، الأول هو الإنترنت الواضح Clear Net الذي يضم المواقع المفتوحة مثل ويكيبيديا وغوغل وغيرها،
الديب ويب "Deep Web" وهي المواقع المشفرة التي لا يمكن الدخول إليها سوى باشتراك أو كلمة سر مثل حسابات البريد الإلكتروني الشخصية على GMail أو Outlook، وحسابات نتفليكس الشخصية إضافة للمواقع غير المتاحة على غوغل التي يمكن الوصول إليها عبر روابط تتداول سريًا داخل أجهزة المخابرات وغيرها.
المستوى الثالث هو الدارك ويب أو الإنترنت المظلم وفقًا لماور، ولا يمكن الدخول عليه بوسائل المستويين السابقين.
ظهر الإنترنت المظلم للمرة الأولى نهاية التسعينيات كشبكة سرية ابتكرها الجيش الأميركي للتواصل السري والمجهول مع عملائه الاستخباراتيين.

ولا يمكن تصفح الدارك ويب عبر المتصفحات العادية مثل أبل سافاري أو غوغل كروم، لكن يتطلب متصفحات خاصة مثل أونيون Onion وتور Tor.

ولا يستخدم الإنترنت المظلم عناوين وروابط عادية URL، ولا يضم رموز "www" أو "com." بل يستخدم حروفًا ورموزًا معينة يجري تداولها بين رواد تلك المواقع لعدم انتشارها.

الحفاظ على سرية رواد الإنترنت المظلم وخصوصيتهم أمر أساسي، لذا يستخدمون تقنيات الشبكات الافتراضية VPN وإخفاء عناوين الإنترنت الفريدة IP Address التي يمكن من خلالها تتبعهم.

تجارة بمليارات الدولارات
يقول التعريف الأكاديمي إن الإنترنت المظلم هو جانب من الإنترنت يقصد ألا تتعرف عليه لأسباب غير قانونية، وفق عاصم جلال استشاري العلوم الإدارية وتكنولوجيا المعلومات في G&K لفوربس الشرق الأوسط.

وتضم قائمة النشاطات التي ثبت إتاحتها على الإنترنت المظلم بيع وتداول المخدرات وبيع وتداول الأسلحة وبيع وتداول مقاطع فيديو إباحية للأطفال وأخرى لتعذيب البشر والحيوانات وغيرها من الانحرافات الأخلاقية.

ويشير جلال إلى أن الجرائم السيبرانية تنتعش أيضًا على الدارك ويب، إذ يجري بيع بيانات البطاقات وحسابات البنوك المسروقة وتداولها.

لا يمكن التعرف إلى حجم التجارة التي تجري على الدارك ويب بدقة وفقًا لجلال لكن حجم التداولات على السوق الواحدة أو الموقع الواحد يُقدر بين مليار وملياري دولار.
يُقدر حجم وخسائر تأثير الجرائم الإلكترونية التي يُمارس جانب منها عبر الدارك ويب بنحو 10.5 تريليون دولار، وفقًا لجلال.
مونوبولي ماركت: في مايو/أيار 2023 ألقت الشرطة الأوروبية (يوروبول) على 288 متهمًا في 9 دول يديرون موقعًا باسم مونوبولي ماركت على الدارك ويب، وصادرت نحو 54 مليون دولار و850 كيلوغرامًا من المخدرات و117 قطعة سلاح.
هيدرا تور: تقول الشرطة الأوروبية إن التحقيقات في شبكة مونوبولي ماركت استغرقت ما يقارب 18 شهرًا ومئات التحقيقات المحلية في البلدان المعنية، وأسفرت عن إغلاق موقع آخر باسم هيدرا تور Hydra Tor كان يحقق عائدات قيمتها 1.3 مليار دولار.
العملات المشفرة.. كلمة السر
يؤكد جلال أن العملات المشفرة هي الأسلوب المفضل للتعامل على الدارك ويب نظرًا إلى صعوبة تتبع المتعاملين بها والاستدلال على هوياتهم.

وأضاف أن العملات المشفرة تضمن الخصوصية والخفاء لمستخدميها، ويصعب الاستدلال على أصحابها على عكس التحويلات البنكية بين شخصين أو التعامل النقدي الذي يتطلب الوجود ماديًا.

وتقدر شركة أبحاث العملات المشفرة "تشيناليسيس" حجم المعاملات بالعملات المشفرة المستخدمة لأغراض غير قانونية مثل الاحتيال وتمويل الإرهاب وبرامج الفدية التي يقع جانب منها عبر الدارك ويب، بما لا يقل عن 24.2 مليار دولار في 2023.

لكن جلال يشير إلى أن المتعاملين على الإنترنت المظلم لجأوا إلى حيل أخرى لإجراء معاملاتهم مثل تقديم منح أو تبرعات بنكية في العلن مع عدم ربطها بما يتلقونه من سلع وخدمات عبر الدارك ويب، وهو ما يزيد من صعوبة ضبط تلك المعاملات.

هل يمكن ضبط المجرمين على الدارك ويب؟
طريق الحرير: في أكتوبر/تشرين الأول 2013 ألقت الشرطة الفيدرالية الأميركية القبض على روس أولبريخت بعد أكثر من عامين على تأسيسه موقع باسم "سيلك رود" Silk Road أو طريق الحرير على الدارك ويب.
أتاح الموقع بيع وشراء المخدرات والأسلحة وبطاقات الهوية والقيادة المزورة وغيرها من السلع غير المشروعة.
قدرت الأبحاث التعاملات بالعملات المشفرة على موقع طريق الحرير بنحو 1.35 مليون بيتكوين (تساوي 270 مليون دولار وفقًا لمتوسط سعر بيتكوين في 2013 البالغ 200 دولار).
مثل حجم البيتكوين المستخدمة على موقع طريق الحرير 4.5% من إجمالي 29.6 مليون بيتكوين عبر بورصات العملات المشفرة مجتمعة في 2013، وفقًا لبحث أجرته جامعة "كارنيغي ميلون" عام 2012.
وتعد عملية ضبط المتهمين على الدارك ويب "طويلة ومعقدة.. وقد تستغرق سنوات لكنها ليست مستحيلة" وفقًا للخبير في الأمن السيبراني والتحول الرقمي رولان أبي نجم الذي أفادنا بالمعلومات الآتية:

تستخدم معاملات الدارك ويب العملات المشفرة مثل البيتكوين لأنها لا تكشف هوية أصحابها، وكل ما يمكن معرفته هو الرقم التعريفي للحساب على شبكة البلوك تشين فقط.
يمكن للسلطات وضع تلك الأرقام التعريفية لحسابات العملات المشفرة المشبوهة في قائمة سوداء، وتتبع المعاملات التي تُجرى من خلالها في السابق أو مستقبلًا، سواء أكان بتحويل العملات المشفرة إلى حساب آخر أم تحويلها لنقود، ومن ثم الكشف عن هوية أصحابها.
أدى القبض على زوجين في أميركا في 2022 بتهمة سرقة عملات مشفرة قيمتها 4.5 مليار دولار بعد تحقيقات استمرت 5 سنوات كاملة، وضبط شبكة REvil لبرامج الفدية الروسية في 2022 الذي تطلب تعاونًا نادرًا بين الاستخبارات الأميركية والروسية قبل شهر من اندلاع الحرب في أوكرانيا.
وأكثر الأساليب انتشارًا حسب جلال، هو انتحال المحققين لصفة المتعامل أو التاجر للمواد والسلع غير القانونية على الإنترنت المظلم، من أجل ضبط والتعرف على المتهمين العاملين من خلاله.

لكن قد يستغرق ضبط شبكات الدارك ويب وإغلاقها وقتًا طويلًا وفق جلال بسبب عدم وجود خارطة أو حصر للشبكة، إذ يتطلب الأمر تحقيقًا طويلًا.

كما يصعب اكتشاف برامج التجسس وإبطالها التي يجري تطويرها باستمرار، وتسرق البيانات لبيعها على الدارك ويب.

وينصح أبي نجم برفع الوعي بشأن خطورة الإنترنت المظلم مع صعوبة التحكم فيه تشريعيًا وقانونيًا، موضحًا أن بعض الأشخاص يستخدمون الإنترنت المظلم خصوصًا المراهقين والشباب لأغراض الحصول على الألعاب والتطبيقات مجانًا حسب أبي نجم.

مضيفًا أنه "لا يوجد شيء مجاني.. قد تحمل تلك التطبيقات برامج تجسس واختراق للبيانات ما تنتج عنه أضرار أكبر".

لقراءة المقابلة على موقع Forbes Middle East إضغط هنا

بعد فضيحة عصابة "التيكتوكرز"… على الأهالي دق ناقوس الخطر وإلاّ!

عندما تترك طفلك لتطبيق "تيك توك"، فإنك فعلياً كمن وضع طفله في بيت مع مجموعة من الناس الغرباء والذين لا يعرف عنهم شيئاً وتركه لساعات وساعات.

هزت قضية "التيكتوكرز" المجتمع العربي والشارع اللبناني خاصةً، والتي وُصفت بالخطيرة جداً، بعد ما قامت عصابة استخدمت تطبيق "تيك توك" ساحة لاستدراج أطفال وقصّر وابتزازهم وإغرائهم لممارسة الجنس واستغلالهم.

والأكثر سوءاً في هذه القضية، أنّ الفاعلين "المؤثرين" كانوا يستدرجون الأطفال من الجنسيّتين اللبنانيّة والسوريّة إلى إحدى الشاليهات، مقابل مغريات بسيطة جداً، وفقاً لمصادر "النهار".

التطبيق الملياري الذي جذب الكبار والصغار، أصبح اليوم مصدر خوف كبير لجميع الأهالي. وبعد الصدمة التي أحدثتها هذه القضية أمس، يسأل الجميع الآن: "كيف يمكن أن نحمي أطفالنا على تيك توك؟" من المحتوى غير المقيّد وإمكانية الوصول والتواصل مع عدد كبير من الغرباء.

5 خطوات على الأهل القيام بها

أولاً، العمر، أوصت منظمة "Common Sense" باستخدام التطبيق لمن هم أكبر من 15 سنة، أما التطبيق نفسه فيفرض أن يكون عمر الشخص 13 سنة على الأقل لاستخدام ميزاته الأساسية.

ثانياً، "Private account"، جعل حساب الطفل على "تيك توك" خاصاً، عبر الدخول إلى "الإعدادات والخصوصية"، وكذلك تقييد من يمكنه ترك تعليقات أو من يستطيع إرسال رسائل مباشرة.

ثالثاً، "Family Pairing mode"، الذي قدمه التطبيق في عام 2022، والذي يتيح للأهالي ربط حساباتهم بحسابات أطفالهم والتحكم فيها مثل إدارة وقت المشاهدة اليومية.

رابعاً، وضع حساب الطفل بالوضع المقيّد "Restricted Mode" للحدّ من تعرضه للمحتوى الذي قد يكون هناك احتمال كبير أنه غير مناسب لعمره.

خامساً، الإبلاغ عن أي فيديو غير لائق أو تسبب بإزعاج لطفلك، أو أي مستخدم ترك تعليقاً غير مناسب.

هل هذه الإجراءات كافية؟
نفذ هذه الخطوات لكن لا تضع قدميك في مياه باردة، ففي حين أن هذه الإجراءات مهمة، حاوِل تقديم بعض أساليب التحكم من ناحية الإعدادات وغيرها، لكن في الحقيقة هي أساليب موجهة أكثر نحو تقييد وصول الأطفال بدل منح الأهل إمكانيات مراقبة منتظمة. فهل أدوات "الرقابة الأبوية" هذه هي وسيلة كافية لحماية الأطفال؟

إنه من غير المسموح للأطفال استخدام الهواتف الذكية لمن هم دون 13 عاماً، بل يجب منعهم من الوصول إلى وسائل التواصل مثل "تيك توك" و"إنستغرام" و"سناب شات" قبل سن الثامنة عشرة، وفقًا لتقرير أعدّه خبراء بتكليف من الرئيس الفرنسي إيمانويل ماكرون. وأكد التقرير شديد اللهجة أن الأطفال بحاجة إلى الحماية من "استراتيجية صناعة التكنولوجيا".

في هذا السياق، اعتبر الخبراء أن الأطفال أصبحوا "سلعة" في سوق التكنولوجيا الجديدة. ولذلك فإن أدوات التحكم تساعد في هذا المجال، لكنها غير كافية أبداً لحماية الأطفال وردعهم عن أن يكونوا سلعة على هذه المنصات.
أما الحماية الحقيقية فتكمن في التوعية والتوجيه وشرح السلوكيات الآمنة عبر الإنترنت لل#اطفال قبل أي شيء آخر، وهذا ما أكد عليه الخبير في التحوّل الرقمي وأمن المعلومات رولان أبي نجم لـ"النهار"، الذي حذّر من أن "كل منصات التواصل الاجتماعي خطرة، لكن تيك توك هو أخطرهم، لأن معظم المحتوى على المنصة محتوى مباشر لا يمكن ضبطه أو اخضاعه لرقابة فعلية".

وفي الحقيقة، فإن المخاطر المتوقعة والمحتملة لاستخدام الأطفال المنصات عامةً و"تيك توك" خاصةً كثيرة من المحتوى غير المناسب، التنمر الإلكتروني، الخصوصية المفقودة، إدمان التكنولوجيا، تأثيرات نفسية إلى الابتزاز وغير ذلك. ولكن الأخطر وفق أبي نجم، هو امكانية استدراج الأطفال ليس فقط على المنصات بل حتى على بعض تطبيقات الألعاب المشهورة، والتي صُنفت من الأخطر عالمياً.

في رأيه، "الموضوع في غاية الخطورة، رغم وجود أدوات تتيح بعض التحكّم للأهل، لكن الأطفال ببساطة قد يستخدمون أجهزة أخرى، لذلك فإنّ الأهم هنا وبشكل أساسي هو التوعية والمتابعة من قبل الأهل".

في الإطار نفسه، دقّت دراسة ناقوس الخطر، بعد أن استمرت ثلاثة أشهر أجراها علماء وخبراء بقيادة طبيب الأعصاب سيرفان موتون، وأمين بنيامينا، من مستشفى بول بروس، فأكدت أنّ الأطفال دون سن الثالثة يجب ألّا يتعرّضوا للشاشات، بما في ذلك التلفاز. كما لا ينبغي أن يكون لدى أي طفل هاتف قبل سن 11 عاماً. وذكرت أنّ أي هاتف يُمنح لطفل يتراوح عمره بين 11 و13 عاماً يجب أن يكون هاتفاً لا يمكنه الوصول إلى الإنترنت.

من الصعب جداً منع أي طفل عن الهواتف بشكل كليّ، لكن أقله ليكن ذلك ضمن أُطر معينة ومتابعة مكثفة وتوجيه من قبل الأهل، بخاصة من خلال تشجيع الأطفال على مشاركة أي تجارب معهم مهما كانت حساسة.

"تيك توك" واحدة من أحدث صيحات العصر، والمنصات الأكثر شعبية اليوم، إلّا أنّ هذا النجاح يحتوي بين أروقته على الكثير من المخاطر، ولن يكون أطفال القضية الأخيرة آخر ضحاياه.

الجميع قد يقع ضحيته.. خطر يتربّص بالعالم وهذا كل ما يمكن للبناني القيام به!

خطر وحيد يجمع الدول العظمى بغيرها في هذه الأيام، وهو الذكاء الاصطناعي والممارسات الناجمة عنه. فبين السياسة والإحتيال المالي والخصوصية الفردية، باتت أجراس الإنذار تقرع في شتى المجالات. ومع التطور المستمر الذي تشهده تكنولوجيا توليد التزييف العميق، لا بدّ من التوقف قليلاً عند هذا التهديد وفهم الموضوع بشكل أوسع.

تزييف الفيديوهات

عن تأثير الذكاء الإصطناعي على صناعة الصور والفيديوهات المزيّفة، سألنا الخبير في الأمن الرقمي والمعلوماتي رولان أبي نجم، الذي أكّد أنه بات كبيراً جداً خاصة مع إنضمام تطبيق Sora التابع لشركة OpenAI الذي بإمكانه إنشاء أي فيديو بشكل متكامل عبر أي نصّ كان.

أبي نجم أشار لـ"لبنان24" إلى أن الأمر لا يتعلّق فقط بهذا التطبيق الحديث والمنتشر كثيراً، بل يمكن أيضاً تزييف الفيديوهات عن طريق تطبيقات عدّة تمكّن المستخدمين من إنشاء صورة أو فيديو عبر نصّ، مشدداً على أن دقّة هذه الفيديوهات عالية جداً HD لذلك من الصعب التمييز بين المحتوى الصحيح والمحتوى المزيّف المصنوع عبر الذكاء الإصطناعي.

وفي ما يشير إلى مدى حساسية هذا الموضوع، أفاد أبي نجم بأنه يمكن صناعة فيديوهات ليس موجودة أصلاً كابتكار أماكن أو أشخاص غير موجودين أبداً، كما يمكن إنشاء فيديوهات عبر التزييف العميق لجعل الأشخاص الحقيقيين يلقون خطابات لم تحصل أبداً.

وفي العودة إلى أصل إنشاء التزييف العميق، فقد تمّ ابتكاره عبر الذكاء الإصطناعي ليس بهدف الشرّ، إنمّا لاستخدامات معيّنة تختلف بين الشخص والآخر.

من هنا، اعتبر أبي نجم أنه في حال تمّ استخدام التقنيات الحديثة والذكية بشكل إيجابي وبنّاء، يمكن أن تفيد في صناعة أبرز وأهمّ المحتويات بشكل إبداعي، بينما يمكن أن تؤثر سلباً على المستخدمين خاصة بما خصّ تزوير الأخبار وسواها وهو ما بدأ يطلّ برأسه على أرض الواقع من خلال مواقع إخبارية مصنوعة عبر الذكاء الإصطناعي، تبثّ أخباراً ونصوصاً وفيديوهات قد يصعب على المستخدم التمييز بينها وبين ما هو حقيقي.

هل الوقاية ممكنة؟

الخبر السيء هنا بحسب أبي نجم، هو أنه "مع الأسف لا يمكن الوقاية من هذا الأمر على الصعيد الشخصي ولا العام، وما من إجراءات يمكن اتخاذها لعدم وقوع ضحية التزييف، خاصة مع غياب أي ضوابط وقوانين"، مشيراً إلى أنه حتى ولو سُنّت هذه القوانين، إلا أنها ستبقى محدودة، لأنه مثلاً إذا قام أحد الناشطين في كوريا الشمالية بابتكار فيديو استهدف أشخاصاَ في لبنان، فلا يمكن لهم التحرك ضدّه، وبالتالي الأمر ليس محصوراً في إطار جغرافي كي يتمكّن المستخدمون من حماية أنفسهم.

إلا أن أبي نجم ركّز بشكل كبير في هذا السياق على الوعي الذي يجب أن يتحلّى به رواد مواقع التواصل الإجتماعي، داعياً لاتباع منهج Zero Trust أي عدم الثقة بأي شيء، خاصة أنه في ظل الحديث عن الذكاء الإصطناعي والإبتكار السهل للفيديوهات والأصوات، يجب دوماً التأكد من المعلومات قبل تصديقها، قائلاً إن "عبارة "لا أصدّق شيئاً قبل رؤيته صوتاً وصورة" التي كنا نعتمدها في السابق، باتت غير صحيحة ولا فعاّلة في أيامنا هذه".

التشريع أبطأ من التطور

وعلى صعيد الرّدع، أشار أبي نجم إلى أن الأنظمة العالمية تحاول بشكل جدّي وضع ضوابط لهذا الموضوع، وخاصة الإتحاد الأوروبي وأميركا، إلا أن الأمر ليس بهذه السهولة إذ أن المشرّعين ليسوا بعد على دراية كافية بمخاطر الذكاء الإصطناعي الذي لا يزال حديثاً جداً بالنسبة لهم.

وفي هذا الإطار، قد يكون التشريع أبطأ من التطور لأن بعض التشريعات التي يتمّ العمل عليها الآن لن تكون قيد التطبيق قبل العام 2026، ومن الآن حينه بحسب أبي نجم، أمور كثيرة حديثة ستطرأ تقنياً.
وأضاف أنه يتمّ اليوم الضغط باتجاه محركات البحث كغوغل ويوتيوب وغيرهما، كي تضع ما يشير إلى أن المحتوى مصنوع عن طريق الذكاء الإصطناعي لمساعدة المستخدمين على معرفة الحقيقي من المزّيف، إلا أن هذا الأمر لا يزال قيد البحث والدراسة.

ماذا عن لبنان؟

وعن واقع لبنان من هذا الخطر المستجدّ، فأشار أبي نجم إلى أن الأمر لا يتعلّق بدولة واحدة وهو قطعاً موجود في لبنان كما في الخارج لأن المحتوى منشور عبر الإنترنت في كل العالم.

إلا أنه شدّد على أن المواطن اللبناني الذي يقع ضحية أي فيديو مفبرك له، أن يرفع دعوى قضائية عبر النيابة العامة التمييزية لتتحول إلى مكتب مكافحة الجرائم المعلوماتية، والهدف منها حماية النفس وليس الحصول على تعويض.

وأوضح أن "المواطن ممكن أن يتوّرط بأي شكل من الأشكال في حال تمّت فبركة فيديو له، لذا عندما يرفع دعوى قضائية، فهذا سيكون في سبيل رفع المسؤولية عن نفسه لا أكثر".

هل يمكن للمقاومة العنيفة أن توقف تمدد الذكاء الاصطناعي؟

تحول تاريخ 30 نوفمبر 2022 إلى يوم مفصلي في حياة البشرية، ففي هذا التاريخ أطلقت شركة OpenAI برنامج ChatGPT، الذي جسد أول إطلالة للذكاء الاصطناعي التوليدي على العالم، وهو ما أحدث حالة من الذهول بين أوساط المستخدمين، نظراً لقدرات هذه التكنولوجيا فائقة التطور.

ففي غضون خمسة أيام فقط من إطلاقه، أصبح لدى ChatGPT أكثر من مليون مستخدم، لتكرّ بعدها سبحة الشركات، التي أعلنت عن تحقيقها اختراقات واعدة مرتبطة بتطوير الذكاء الاصطناعي التوليدي، وليصبح التقدم في هذا المجال، غير محصور بما قدمته OpenAI بل يمتد ويشمل أيضاً برامج لشركات مثل مايكروسفت وألفابت وميتا وAnthropic و DeepMind وغيرها الكثير.

والآن وبعد مرور نحو عام ونصف العام، لا تزال حالة الذهول التي سببها الذكاء الاصطناعي التوليدي تتفاعل، فكلما تقدم الزمن كلما أثبتت هذه التكنولوجيا، أنها قادرة على التطور، وبالتالي القيام بمهام كانت محصورة فقط بالإنسان، فالذكاء الإصطناعي التوليدي، بات يمثّل إحدى أهم الأدوات التي ستساهم في انتقال الإقتصاد من المرحلة التقليدية، إلى المرحلة الرقمية، ما سيزيد الارتباط بين المؤسسات والآلات، ويؤدي إلى سيطرة الروبوتات على وظائف البشر.

هل يتسبب الذكاء الاصطناعي في تدمير الوظائف؟

ويقول تقرير لبلومبرغ إنه على مدى ثلاثة قرون، تكيّفت سوق العمل مع التكنولوجيات الجديدة، حيث كان الاتجاه السائد هو أن تساهم هذه التكنولوجيات، بزيادة إجمالي فرص العمل، والإنتاجية، وفي نهاية المطاف الأجور، ولكن تبين أن التكنولوجيات الجديدة، تلعب أيضاً دوراً في تدمير بعض المهن، وهو ما أدى إلى اختفاء الكثير من الأدوار الوظيفية، ولكن دون أن يتسبب ذلك ببطالة جماعية، وذلك كون التكنولوجيات التي ظهرت أدت إلى استحداث مهن جديدة.

ومع ذلك، تشير الأدلة الأخيرة حول صدمات سوق العمل، الناجمة عن الأتمتة، إلى أن الآثار السلبية للذكاء الإصطناعي، سوف تتركز جغرافياً وديموغرافياً، في أماكن محددة وهي الأماكن التي يتم فيها، تبني ونشر هذه التكنولوجيا بشكل سريع ودون ضوابط، حيث أن أسواق العمل في تلك الأماكن، ستكون الأكثر تضرراً ولن تتكيف بسلاسة.
وتشير تقديرات أبحاث شركة ماكينزي إلى أنه حتى في غياب الذكاء الاصطناعي التوليدي، فإنه من الممكن أن تتولى الأتمتة مهاماً، تمثل 21.5 بالمئة من ساعات العمل حالياً في الاقتصاد الأميركي بحلول عام 2030، أما مع وجود الذكاء الاصطناعي، فسترتفع هذه النسبة إلى 29.5 بالمئة، إذ من المرجح أن يتقلص التوظيف في الوظائف الإدارية في جميع المجالات، من مهنة المحاماة إلى مهنة الترفيه.

وفي حال استمرار تطور الذكاء الاصطناعي وظهور أجيال جديدة منه أكثر وعياً، يصبح من الممكن الحديث عن نتائج أكبر، حيث قد يكون من غير المنطقي توظيف البشر في أغلب الأدوار الوظيفية.

أما صندوق النقد الدولي فقد حذّر في بداية عام 2024، من أن الذكاء الاصطناعي، قد يؤثر على قرابة 40 في المئة من الوظائف حول العالم، داعياً صناع السياسات إلى الموازنة بعناية، بين إمكانات هذه التكنولوجيا وتداعياتها السلبية.

هل يمكن مقاومة تمدد الذكاء الاصطناعي؟

يتمتع التغير التكنولوجي بتاريخ طويل من إثارة الجدل السياسي والاضطرابات الاجتماعية، لكن المقاومة المنظمة نادراً ما تنجح في منع تبنيه بحسب تقرير لبلومبرغ.

ففي عام 1675 شهدت لندن أعمال شغب عنيفة من قبل عمال النسيج الذين قاموا بتدمير الآلات التي كانوا يخشون أن تدمر سبل عيشهم، وهذا السيناريو تكرر في عدة صناعات على مر التاريخ وفي مختلف دول العالم، إلا أن مقاومة التغيير التكنولوجي عادة ما تكون عديمة الجدوى، إذ يتم دائماً سحق الحركات الاعتراضية بسبب افتقارها للتنظيم.

فمثلاً هناك اليوم 1.3 بالمئة فقط من العاملين في الخدمات المالية في الولايات المتحدة و2.3 بالمئة من العاملين في الخدمات المهنية والتجارية ينتمون إلى النقابات، وهو أقل من المتوسط الوطني الذي يبلغ 10 بالمئة، وفي ظل هذا الافتقار إلى التنظيم، لن يكون أمام الخاسرين من ثورة الذكاء الاصطناعي سوى فرصة ضئيلة للمقاومة ضد تمدد هذه التكنولوجيا.

هل يتكرر سيناريو "النعجة دوللي"؟


ومع ذلك، فإن مقاومة الذكاء الاصطناعي يمكن أن تنجح إذا شعر عامة الناس والنخب بالخوف، ومن الأمثلة الجيدة على ذلك ردود الفعل العنيفة التي حصلت ضد الاستنساخ البشري والهندسة الوراثية، ففي عام 1996، كانت ولادة "النعجة دوللي" في المملكة المتحدة بمثابة أول استنساخ ناجح لحيوان ثديي، ولكن عدم تقبل المجتمع لهذه الفكرة والاعتراض عليها بشدة دفع الولايات المتحدة إلى إقرار قانون حظر الاستنساخ البشري في عام 2003، حيث تم بموجب هذا القانون حظر الاستنساخ التكاثري والاستنساخ البحثي باستخدام الأموال الفيدرالية.

ومع تزايد احتمالات تحوّل الذكاء الاصطناعي التوليدي إلى تكنولوجيا "شبه بشرية" لناحية قدرتها على استنساخ أنماط البشر، قد يتعرض المنظمون والمشرعون لضغوط تدفعهم إلى تقييد استخداماتها، خصوصاً أنه بات بإمكان الذكاء الاصطناعي التوليدي الآن، استنساخ أصوات الأشخاص وحتى أشكالهم، فعلى سبيل المثال، يمكن من خلال هذه التكنولوجيا إنشاء محتوى فيديو أو محتوى صوتي مزيف ينتحل شخصية الأفراد، وهذا ما يدفع البعض للاعتقاد أن سيناريو "النعجة دوللي" لناحية إقرار "قانون حظر الاستنساخ البشري"، يمكن أن يتكرر مع الذكاء الاصطناعي التوليدي.

هل تنجح المقاومة العنيفة؟

ويقول خبير التحول الرقمي رولان أبي نجم، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن ما ينطبق على موضوع الاستنساخ البشري والهندسة الوراثية لا ينطبق بتاتاً على موضوع الذكاء الاصطناعي وذلك نظراً لعدة أسباب، وبالتالي من المستحيل للمقاومة العنيفة أن توقف تمدد الذكاء الاصطناعي في الوظائف، مذكراً بما حصل في عام 1986 عندما حاول الاساتذة وأهالي التلاميذ مقاومة طرح الآلة الحاسبة في الأسواق، على اعتبار أنها آلة تساهم في تراجع المستوى العلمي لدى الطلاب، ولكننا بتنا اليوم في زمن لا يمكن فيه التخلي عن الآلة الحاسبة نظراً لفوائدها على المجتمع.

ويذكّر أبي نجم بما قاله إيلون ماسك في عام 2018 عن أن تكنولوجيا الذكاء الاصطناعي ستكون أخطر من السلاح النووي، فاستخدام هذا السلاح محصور بيد الدول والحكومات، بينما الذكاء الاصطناعي بات وسيلة في يد جميع البشر، حيث يكمن الخطر في تفلت هذه التكنولوجيا وإساءة استخدامها وتطويرها دون أي ضوابط، مشيراً إلى أن أي شخص
أو حتى شركة في العالم يمكن لها العمل على تطوير الذكاء الاصطناعي، في حين أن ذلك لا ينطبق على موضوع استنساخ البشر أو استخدام السلاح النووي.

40 عاماً من المحاولات الفاشلة

ويشرح أبي نجم أنه بعد مرور 40 عاماً على استخدام الإنترنت، لم تنجح أي محاولات لضبط الوضع على الشبكة لناحية وقف الهجمات الخبيثة، رغم جميع الضوابط التي تم إقرارها، وهذا الأمر ينطبق أيضاً على وسائل التواصل الاجتماعي، فالاختراقات وعمليات الاحتيال تتكرر وتتزايد، وهذا الأمر سيتكرر بالنسبة لموضوع الذكاء الاصطناعي، لسبب بسيط جداً وهو أننا نتكلم عن تكنولوجيا مرتبطة بالعولمة وليس لها حدود جغرافية وغير مرتبطة بحكم دولة واحدة، ولذلك فإنه لا يمكن لأي ضوابط أن تكون فعالة بأي شكل من الأشكال.

ويشدد أبي نجم على أن المقاومة العنيفة لن توصل الى أي مكان، ولن توقف تمدد الذكاء الإصطناعي في الوظائف، فالمنافسة الشرسة بين دول العالم مثل أميركا والصين وأوروبا والشركات الكبيرة مثل أمازون وآبل ومايكروسفت وألفابت وأوراكل لتطوير هذه التكنولوجيا يعني الحصول على ذكاء اصطناعي أكثر قوة وانتشاراً في المستقبل، مشيراً إلى أن ما يمكن أن ينجح في هذا المجال هو جعل خورازميات مواقع التواصل الاجتماعي قادرة على التعرّف ومنع إنتشار المحتوى المسيء والمزور الذي يتم إنشائه عبر الذكاء الاصطناعي.

ويؤكد أبي نجم أن الحقيقة تقول إن الذكاء الاصطناعي سيتطور وسيصبح أكثر قوة مما نعرفه حالياً، مشيراً إلى أنه يتم العمل حالياً على تطوير الذكاء الاصطناعي العام، أو ما يعرف بـ AGI وهي تكنولوجيا أخطر بمليارات المرات من الذكاء الاصطناعي الحالي، وحينها ستكون الروبوتات قادرة على أن تقوم بما يفعله البشر تماماً من ناحية التفكير والتحليل.

واقع لا مفر منه

من جهته يقول المطور التكنولوجي جو زغبي، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن أدوات الذكاء الاصطناعي تشق طريقها بسرعة إلى الأعمال الصناعية والتجارية، ولكن في المقابل، فإن هذا التحوّل سيحدث تغييرات كبيرة في طبيعة القوى العاملة، وهذا الأمر لا مفر منه في المستقبل البعيد وليس القريب، مشيراً إلى أن المعادلة واضحة جداً بهذا الشأن فما نراه وسنراه من حركات اعتراضية ضد انتشار الذكاء الاصطناعي في عالم الأعمال، ستنجح بتأخير تمدد هذه التكنولوجيا فقط وليس منعها، فالحركات الاعتراضية التي نراها مثلاً في مجال نقابات السينما والفن في أميركا إيجابية، كونها ستمنح الموظفين المزيد من الوقت للتأقلم مع التغيير المنتظر، وبالتالي سيكون أمام هؤلاء المزيد من الوقت، لاكتساب مهارات جديدة قد تحتاجها سوق العمل مستقبلاً وتكون مرتبطة فقط بالإنسان.

وبحسب زغبي فإن ملايين الوظائف حول العالم، ستكون معرضة للانتقال من يد الإنسان إلى أدوات الذكاء الاصطناعي التوليدي خلال الأعوام العشرة المقبلة، وهذا ما حذرت منه مراجع كبيرة مثل مصرف "غولدمان ساكس"، ولكن تبقى عملية الانتقال السلسة أفضل من حيث النتائج وهذا ما سيمنح البشر الوقت الكافي للتأقلم مع الواقع الجديد وعدم الخوف من الذكاء الاصطناعي التوليدي، وتعلم العمل إلى جانبه، فالأشخاص القادرون على استخدام الذكاء الاصطناعي والتحكم فيه، هم من سيقودون سوق الوظائف مستقبلاً.

فتاة ال16 عاماً تتعرض للإغتصاب على الإنترنت. وأبي نجم يوضح "إزالة الVR Headset كانت كفيلة بحمايتها

يبدو أن الطبيبة البريطانية نينا جين باتيل التي تعرضت للإغتصاب على منصة هورايزن وورلدز من قبل أربع شخصيات رمزية من الذكور وتصويرهم للحادثة، لم تكن الأخيرة. ورغم القيود الشخصية التي أطلقتها شركة ميتا personal boundaries إلاّ أنها لم تكن كافية.

فوفقاً لصحيفة "مترو"، تعرضت فتاة تبلغ من العمر 16 عاماً للإغتصاب من قبل مجموعة من الرجال عبر الإنترنت. وحتى لو لم تتعرض الضحية لأذى جسدي فعلي، إلا أنها عانت من الصدمة النفسية والعاطفية ذاتها الذي يعاني منها الشخص الذي يتعرض للإعتداء في الحياة الحقيقية. والضحية كانت ترتدي سماعة رأس للواقع الإفتراضي (VR) وكانت تتواجد في غرفة افتراضية عندما اعتدى عليها الرجال.

وقد فتحت الشرطة البريطانية تحقيقاً في القضية، إذ أنها تشعر بالقلق من أن هكذا جرائم هي منتشرة على الإنترنت ويتم التستر عليها وعدم الإفصاح عنها. وقال قائد مجلس رؤساء الشرطة الوطنية إيان كريتشلي، خلال التحقيق في حماية الأطفال وإساءة معاملتهم إنّ: "التحول يخلق بوابة للحيوانات المفترسة لارتكاب جرائم مروعة ضد الأطفال".

ولأن كل الأمر يتعلق بوضع سماعات رأس الواقع الإفتراضي VR Headset، يرى المستشار بأمن المعلومات والتحول الرقمي رولاند أبي نجم أنه "بمجرد إزالة VR Headset سينتهي كل شيْ إذ أنّ المستخدم سيعود إلى الواقع". واضاف لموقع سايبرأكس "ليست المرة الأولى التي تحدث فيها هكذا جريمة في عالم الميتافيرس، لكن الشخصيات المستخدمة ضمنها هي ليست حقيقية وبمجرد شعور المستخدم من أن هناك من يقترب من شخصيته أو أنه يتعرض لأي سوء فيكفي أن يعود لواقعه الآمن من خلال الخروج من الواقع الإفتراضي".

وفي ظل الإنتهاكات والإعتداءات التي تحصل على الإنترنت وخاصة ضمن الألعاب الإلكترونية مثل Horizon Worlds و Horizon Venues فلا بد من قوانين رادعة وضابطة لمنع هذه الإعتداءات، لكن حالياً وفي غياب التشريعات هل ستتمكن الشرطة البريطالنية من متابعة القضية وملاحقة المعتدين قضائياً؟ في رأي أبي نجم "لا يوجد جرم إذا لم يكن له مادة جرمية. وحتى الآن لم تسن قوانين خاصة بالميتافيرس".

وإذا كانت الأسئلة تدور حول حق الضحية وحمايتها وحقوقها الإفتراضية، يقول رولاند أبي نجم إنه "يستطيع المستخدم تفعيل خاصية تمنع المستخدمين الآخرين من الإقتراب منه".  إذا ورغم كل المطالبات بتغيير القانون لحماية النساء والأطفال من الأذى في هذه البيئات الافتراضية، فما من حامي للمستخدم ومسؤول عنه في العالم الإفتراضي إلا نفسه.

أمّا أساليب المحتالين والمجرمين الإلكترونيين، فهي بسباق متوازٍ مع تطور التكنولوجيا وتفاقمها. ويشكل الوعي والتوعية السيبرانية الركيزتين الأساسيتين لصد أي محاولة إعتداء أو إحتيال إلكتروني.

لقراءة القابلة على موقع CyberEx إضغط هنا

The financial situation behind Musk’s Twitter actions

Roland Abi Najem, information security and digital transformation consultant, attributed the recent measures taken by the American businessman Elon Musk, CEO of the social networking platform “Twitter”, to 3 main reasons, all of which aim to improve the company’s financial position, in addition to his endeavor to adjust the market value of the company he acquired last year. The past amounted to 44 billion dollars, which later declined to about 21 billion dollars only.

Abi Najem said in an intervention with the Business Session program on Qatar TV that Elon Musk is a businessman and his main business is business and using money to reap more profits, but when he bought Twitter, its estimated value was about $44 billion, but it fell to $21 billion with daily losses estimated at $4. Millions of dollars.

He added that the main reason for the recent actions is due to Musk’s reneging on a deal with Google Cloud worth $100 billion, which in turn facilitates seeing the number of tweets for users, in addition to what it offers by enabling them to browse everything they want on the platform, in addition to other advantages, including data storage and anti-tweet services. Spam and account protection, in addition to facilitating access to useful statistics for content makers about their tweets using Google Cloud, as well as developing a platform for measuring the performance of ads on Twitter, in addition to helping users find audio discussion spaces that suit their interests and to save this cost. By not completing the contract with them.

Data extraction
Another reason, Abi Najem said, is the “extreme levels” of data mining that polling and benchmarking companies, along with artificial intelligence companies such as OpenAI, creators of the ChatGBT chatbot, use Twitter data to train models with. Its voluminous language is what prompted Musk to limit viewing of tweets and to require companies to pay to withdraw a certain number of tweets.

Subscriptions
The technical expert also indicated that Musk seeks through this step also to force users to subscribe to the paid “Twitter Blue” service, which allows them to browse more tweets of up to 6 thousand tweets for $ 8 per month, which ultimately contributes to increasing the income resources of the company that It aims to achieve profits as any investment project.
Abi Najem stressed that the aim behind these decisions and procedures is to reduce costs and secure sources of income for the company to ensure its continuity.

شريحة إلكترونية في الدماغ… أخطر من السلاح النووي

وضع الملياردير إيلون ماسك جدولًا زمنيًا لشركته بعدما حصلت على إذنٍ أميركي رسمي بإجراء تجارب بشرية في شأن زراعة شريحة في الدماغ البشري، ‏من أجل علاج مُختلف الحالات الجسدية.‏ وأعلن أنّ أوّل اختبار لزرع الشريحة سيكون في وقت لاحق من العام الحالي.

كما أوضح أن شركته ستزرع الشريحة الإلكترونية في دماغ مريض مُصاب بشلل نُصفي أو كلّي، من أجل مُساعدته على التواصل مع أحبائه. كما أبدى اقتناعه بأنّ تطوير شريحة الدماغ يُمكن أن تُساعد المكفوفين على استعادة نظرهم، أو حتى السماح بتبادل البيانات بسرعة عالية مع الأجهزة الذكية. فما هي هذه التقنية؟ وما تأثيراتها؟
كشف المُستشار في أمن المعلومات والتحوّل الرقمي رولان أبي نجم أن "هذه التجربة تكمُن في زرع شريحة في الدماغ البشري، بعد إجراء تجارب عدّة على الحيوانات وتحديداً القرود. وبرزت اعتراضات كثيرة عليها وكانت ممنوعة سابقاً لأن معظم التجارب المنفّذة على الحيوانات مات خلالها أكثر من 1500 قرد. ولم يُعط الترخيص للزرع في دماغ الإنسان. ثم تمّت الموافقة عليه".

وتابع أبي نجم، في حديث لموقع mtv: "يتحكّم الإنسان من خلال دماغه في كل شيء في جسمه. يُعطي الأمر وأعضاء الجسم تُنفّذ هذا الأمر. وفي حالة الشّلل في الأطراف، يُعطي الدماغ الأمر لكنّه لا يصل الى الأطراف".
وقال "إن هذه الشريحة لديها وظائف عدّة من ضمنها مُساعدة الشخص المُقعد على إيصال الأوامر الصادرة من الدماغ الى باقي أطراف الجسم".
وأشار الى وجود "تخوّف من حصول overheating للـchip في الدماغ وردود فعل عكسيّة في الدماغ وطريقة التفاعل معها، كما هناك علامات استفهام عدّة حول الموضوع".

ولفت الى أن "لا شيء يُثبت حتّى الآن اذا ما كانت هذه التجربة ستنجح علمياً أم لا، اذ أنّها قيد التجربة. وينتظر الجميع ردود الفعل الايجابية أو السلبية، اذ هناك تخوّف من أخلاقيات هذا الموضوع واستخدام هذه التجربة بطريقة سلبية والتحكّم عبرها بالإنسان وبدماغه".

وختم أبي نجم قائلاً: "إن ماسك بدأ هذا الموضوع مثلما بدأ chat gpt برامج الذكاء الإصطناعي وكل الشركات تتنافس في هذا المجال لأسباب تجاريّة وماليّة. ولا يوجد قوانين وضوابط لتنظيم القطاع والسيطرة على هذه التكنولوجيا. يتخوّف الجميع من الذكاء الإصطناعي لكونه أخطر من السلاح النووي. وهذا موضوع خطير من مختلف النواحي، وفي حال صدور القوانين لا نعرف مدى التزام الدول بها"

من أين يحصل شات ج.ب.ت على معلوماته؟

من أين يحصل ChatGPT على معلوماته وماذا عن الاختراق الإلكتروني؟… الخبير رولان أبي نجم يكشف معلومات مهمة للـLBCI
يعتبر ChatGPT أو "تشات جي بي تي" واحداً من أهم التطبيقات الحديثة الخاصة بتقنية الذكاء الاصطناعي، وأصبح محور اهتمام الناس في الفترة الأخيرة.

وعلى الرغم من اجتياح هذه التقنية العالم، أسئلة كثيرة يمكن طرحها تتعلق بجودة المعلومات وصدقيتها. فما هي إيجابيات هذه التقنية وسلبياتها؟ وهل يمكن الوثوق بالمعلومات كافة المتوفرة على ChatGPT؟

من هنا، حمل موقع الـ LBCI الإلكتروني هذه الأسئلة وغيرها، وطرحها على الخبير في التحوّل الرقمي وأمن المعلومات رولان أبي نجم.

وفي حديثه مع الـLBCI كشف أبي نجم أنه لا يوجد مصدر محدد أو رسمي للمعلومات التي يقدمها ChatGPT، لافتاً الى أن المعلومات قد تكون من المواقع الإلكترونية أو من الكتب والأبحاث مثلاً.

وأضاف قائلاً: "من هذا المنطلق، لا يمكن الوثوق بمعلومات ChatGPT لأنها قد تكون قديمة نظرًا لأنها غير مطوّرة منذ 2021، ولا يمكن للتقنية أن تطور معلوماتها إلّا بمساعدة المعنيين".

وبالنسبة لموضوعية ChatGPT في تقديم معلوماته، قال أبي نجم: "هذه التقنية تعمل بانحياز لجهة مقابل أخرى، الأمر الذي دفع بالسلطات الصينية الى حظر التطبيق في بلادها بعد انحيازه للولايات المتحدة الأميركية".

وفي سياق متصل، تحدث أبي نجم عن إيجابيات ChatGPT وسلبياته، معتبرًا أن إيجابياته عدّة انطلاقًا من تلخيص الرسائل الإلكترونية أو إرسالها بطريقة مهنية، أو حتى ترجمة المعلومات والتأكد من صدقيتها. وأضاف: "من أكبر سلبيات ChatGPT استخدامه بطريقة خاطئة ومن قبل أشخاص غير مدركين للطريقة التي يعمل بها التطبيق. فلا يمكننا مثلاً استعماله لاستشارات متعلقة بعلم النفس أو المواضيع الطبية، نظرًا لأنه لا يمتلك المعلومات الطبية الوافرة".

أمّا بالنسبة لموضوع التعرّض للاختراق الإلكتروني وسرقة البيانات الشخصية، فكشف أبي نجم لموقع الـLBCI الإلكتروني أن موضوع الاختراق الإلكتروني حدث لأكثر من مرة، وقال: "فقد تعرضت بيانات عدّة للبيع، الأمر الذي دفع بشركة Open AI المالكة لـChatGPT للتعاون مع خبراء موثوق بهم للبحث عن الثغرات الأمنية وتحسينها".

وأكّد الخبير في التحوّل الرقمي وأمن المعلومات رولان أبي نجم للـLBCI أنه "لا يوجد سقف لتطوير تطبيقات الذكاء الإصطناعي مثل ChatGPT، وأن خبراء عدّة طالبوا بتوقيف تطوير الذكاء الإصطناعي للبحث في آلية متعلقة بموضوع الأخلاقيات، نظرًا لعدم وجود ضوابط تحدّه". وتابع أبي نجم قائلاً: "وفي حال قررت دولة معيّنة وضع ضوابط قانونية وتشريعية، يجب دراسة قدرة المشرعين فيها على فهم التطبيقات ووضع التشريعات المناسبة لها".

وتطرّق أبي نجم في حديثه الى موضوع الاختصاصات الأكثر تأثرًا بـChatGPT، معتبرًا أن كل القطاعات ستتأثر ولكن بشكل نسبي، وأكثرها التي تعتمد على العمل الروتيني، مثل الترجمة، الكتابة، وصناعة المحتوى على مواقع التواصل الاجتماعي وغيرها من الاختصاصات الخاصة بتصميم الصور والفيديوهات… كما اعتبر أبي نجم أن الأقل تأثرًا هم الأطباء على اختلاف اختصاصاتهم.