
الذكاء الاصطناعي.. حقائق وأوهام
المتحدث لا يمثل رأي المؤسسة وانما يمثل رأيه فقط
مقدمة
يُعَدُّ الذكاءُ الاصطناعيُّ الثورةَ الرابعةَ في ميدان التكنولوجيا، وهو أحدُ فروع علوم الحاسوب، وقد برز ظهورُه بصورته الحديثة في عام 2016.
وتكمن أهمية هذا العلم في تحسين الكفاءة والإنتاج، وتوفير الجهد، ودعم اتخاذ القرارات، والارتقاء بجودة الحياة، وتعزيز الابتكار.
ومن أبرز استخداماته: الرعاية الصحية، والتعليم، والتجارة الإلكترونية، وقيادة المركبات، والزراعة، والأمن السيبراني.
وهو علمٌ واسعٌ، تتفرع عنه أنماطٌ متعددة، منها الذكاء الاصطناعي الضيق، وكذلك الذكاء الفائق.
الأستاذ محمد حسين فرج الله
من المعلوم أن من نماذج الذكاء الاصطناعي ما يتمثل في برنامج ChatGPT، وهو ليس إلا مثالًا واحدًا من بين نماذج عديدة.
وتتعدد مجالات استخدام الذكاء الاصطناعي، وقد انتشرت حوله أوهامٌ كثيرة، يقابلها حقائق وأمثلة واقعية، فضلًا عن التطورات المتسارعة التي يشهدها هذا المجال.
ففي ستينيات وثمانينيات القرن الماضي ظهرت ما يُعرف بالأنظمة الخبيرة، وقد سبق ذلك نشوء الذكاء الاصطناعي على يد جون مكارثي. ثم طُرحت مشاريعٌ تهدف إلى تحويل الخبرات البشرية إلى قواعد بيانات، وقد طُبِّق ذلك في الهند، حيث عانت البلاد من أمراض العيون، فأنشِئ نظامٌ يجمع البيانات ويخزنها ويُوزِّعها على مراكز متعددة.
وقد استُخدمت الأنظمة الخبيرة في مجالات النفط، وكذلك في القضايا التجارية والقانونية.
وفي تسعينيات القرن العشرين تطورت الخوارزميات، فأسهمت في دفع عجلة الذكاء الاصطناعي. وكان بطل الشطرنج كاسباروف مثالًا بارزًا حين نافس الحاسوب.
وفي الفترة ما بين عامي 2000 و2012 ظهرت ثورة البيانات الضخمة، فتطورت سعات التخزين من أحجام صغيرة إلى أخرى هائلة، وأسهم ذلك في ظهور الشبكات العصبية العميقة.
ثم برزت نماذج الذكاء الاصطناعي التوليدي، مثل ChatGPT، وهي نماذج تعتمد على بيانات سابقة لتوليد نماذج جديدة.
التمييز بين الذكاء الصناعي والذكاء الاصطناعي
يرتبط الذكاء الصناعي بالمجالات الإنتاجية، كصناعة السيارات والنسيج، حيث طُوِّرت روبوتات تؤدي الأعمال الصناعية، لا سيما في البيئات الخطرة كالمناجم والمناطق الحارة.
أما الذكاء الاصطناعي (Artificial Intelligence)، فهو يسعى إلى محاكاة التفكير البشري، والمساهمة في اتخاذ القرار اعتمادًا على كميات ضخمة من البيانات.
ففي مجال المحاسبة، مثلًا، يستطيع التعامل مع الأرقام الهائلة وتحليلها واكتشاف مشكلاتها.
مستويات الذكاء الاصطناعي
في أبسط صوره: يطرح المستخدم سؤالًا فيتلقى جوابًا.
وإذا قورن بمحرك البحث Google، نجد أن الأخير يقدّم مواقع متعددة، بينما يقوم الذكاء الاصطناعي بجمع المعلومات وتحليلها وتقديم إجابة مباشرة.
ومن نماذجه: ChatGPT وGemini وغيرها، ولكلٍّ منها خصائصه التي تناسب مجالات مختلفة.
مجالات استخدام الذكاء الاصطناعي
الطب: عبر ربط أجهزة الاستشعار بالأعضاء وتحليل البيانات الطبية.
التعليم: في التعليم الشخصي وتصحيح الاختبارات بدقة عالية.
إدارة الأعمال وخدمة العملاء.
التسويق: إعداد دراسات الجدوى بكفاءة وسرعة.
الزراعة.
النقل: خاصة في المركبات ذاتية القيادة.
الأمن السيبراني: لحماية البيانات الحساسة.
التمويل وتحسين الخدمات.
الأوهام والحقائق حول الذكاء الاصطناعي
من الأوهام الشائعة أن الذكاء الاصطناعي يفكر كالبشر، والحقيقة أنه يعالج البيانات ولا يمتلك وعيًا أو تجربة إنسانية، بل يعتمد على الإحصاء والتنبؤ.
ومن الأوهام أيضًا أنه سيقضي على الوظائف، بينما يثبت التاريخ أن كل ثورة تقنية تُلغي وظائف وتخلق أخرى جديدة.
كما يُظن أنه مبدع، والحقيقة أنه يعتمد على ما يُزوَّد به من بيانات، ولا يمتلك إبداعًا حقيقيًا أو تفاعلًا إنسانيًا.
ولا يستطيع اتخاذ قرارات أخلاقية مستقلة، إذ هو أداة بيد الإنسان، يوجهها وفق ما يشاء.
كذلك، فهو ليس معصومًا من الخطأ، إذ يعتمد على جودة البيانات المدخلة؛ فإن كانت خاطئة، جاءت نتائجه كذلك.
حقائق أساسية
لا يعمل دون بيانات.
يعتمد على التحليل لا الفهم.
يتأثر بانحيازات البيانات.
يتطور بسرعة كبيرة.
يزيد الإنتاجية.
يدعم الإبداع دون أن يكون مبدعًا.
يغير طبيعة الوظائف ولا يلغيها.
أمثلة تطبيقية
ظهر ما يُعرف بوكلاء الذكاء الاصطناعي (AI Agents)، وهي أنظمة لا تكتفي بالإجابة، بل تنفذ المهام، كحجز تذاكر السفر وتنظيم الرحلات.
كما يمكنه تبسيط المفاهيم المعقدة، أو تلخيص الكتب الكبيرة في وقت وجيز.
الخلاصة
الذكاء الاصطناعي ليس معجزة، بل أداة نحدد نحن كيفية استخدامها.
وتبقى أعظم قوة هي الإنسان الواعي، لا التكنولوجيا وحدها.
التحديات
من الأخطار المحتملة إساءة استخدام الذكاء الاصطناعي، لا سيما في الحروب، حيث قد يتحول إلى أداة لاتخاذ قرارات خطيرة.
وهنا يبرز السؤال: هل يمكن أن يخطئ؟ نعم، وقد يؤدي خطؤه إلى عواقب جسيمة.
لذا، فإن التحدي الحقيقي يكمن في كيفية استخدامه استخدامًا مسؤولًا وأخلاقيًا.



