English العربية العودة إلى المدونات

أسباب فشل شركات الذكاء الاصطناعي في 2025: دليل عملي لتقييم المخاطر والاختيار بين التركيز والتنويع

أ. د. أنيس قوبعة

جدول المحتويات

مقدمة

كوني واحدًا من أكثر المدافعين عن إمكانيات النماذج اللغوية الضخمة والذكاء الاصطناعي في تحويل الأعمال المستقبلية، وبصفتي قائدًا لعدة شركات في هذا المجال، أكتب هذا المقال لمشاركة تجربتي والاتجاهات الحديثة في عوامل فشل حلول الأعمال القائمة على الذكاء الاصطناعي التوليدي. هدفي هو توجيه انتباه رواد الأعمال الحاليين إلى المخاطر الحقيقية والدروس المستفادة من السوق، لمساعدتهم على تجنب الأخطاء المكلفة والبناء على أسس أكثر صلابة.

في عام 2025، يشهد قطاع الذكاء الاصطناعي (AI) نموًا هائلًا، حيث يتجاوز الإنفاق العالمي على تقنيات الذكاء الاصطناعي التوليدي (GenAI) 644 مليار دولار، بزيادة تصل إلى 76.4% عن العام السابق (S&P Global Market Intelligence, 2025). ومع ذلك، فإن هذا النمو مصحوب بمخاطر عالية، حيث ارتفعت نسبة الشركات التي تسحب معظم مبادراتها في الذكاء الاصطناعي من 17% إلى 42% خلال عام واحد فقط (CIO Dive, 2025).

كما أن 46% من المشاريع تتوقف بين مرحلة إثبات الجدوى (PoC) والتوسع، بينما تتوقع جارتنر أن يتم التخلي عن 30% على الأقل من مشاريع GenAI بعد PoC بنهاية 2025 بسبب جودة البيانات السيئة، والمخاطر غير المدبرة، والتكاليف المتزايدة (Gartner, 2024).

إذا كنت تفكر في إطلاق شركة ناشئة في الذكاء الاصطناعي أو الاستثمار فيها، فهذه المدونة تقدم دليلًا عمليًا مبنيًا على بيانات حديثة لفهم أسباب الفشل، تقييم المخاطر، والاختيار بين التركيز على منتج واحد أو التنويع. سنغطي كل ذلك بتفصيل، مع أمثلة حقيقية ونصائح قابلة للتطبيق، لمساعدتك على تجنب الأخطاء الشائعة في هذا المجال الديناميكي.

لماذا تفشل مشاريع وشركات الذكاء الاصطناعي؟

في 2025، أصبح الفشل في الذكاء الاصطناعي ليس استثناءً بل قاعدة للعديد من المبادرات [3]؛ [20]. وفقًا لتقارير متخصصة، يعود ذلك إلى مزيج من التحديات التقنية، المالية، والتنظيمية [9]. دعونا نستعرض الأسباب الرئيسية بالتفصيل:

1. عدم ملاءمة المنتج للسوق (Product-Market Fit - PMF)

هذا العائق الأكبر يحدث عندما يتم بناء حلول الذكاء الاصطناعي دون فهم عميق لاحتياجات العملاء الحقيقية. على سبيل المثال، يتم إنفاق ملايين على نماذج متقدمة، لكنها لا تحل مشكلات عملية، مما يؤدي إلى ارتفاع معدلات السحب بعد PoC. في دراسات حديثة، يُظهر ارتفاع نسبة الإلغاء إلى 46% أن الكثير من المشاريع تبدأ بديمو جذابة لكنها تفشل في التحول إلى قيمة تجارية ملموسة (S&P Global Market Intelligence, 2025).

2. تكاليف عالية مقابل عائد غير واضح

تنفيذ مشروع GenAI يمكن أن يكلف بين 5 إلى 20 مليون دولار، بما في ذلك تكاليف البيانات، الحوسبة، والتطوير (S&P Global Market Intelligence, 2025). مع غياب عائد استثمار (ROI) واضح، يصبح الإلغاء خيارًا منطقيًا، خاصة في ظل المنافسة الشديدة من عمالقة مثل OpenAI (Human Capital Management, 2024). كثير من الشركات الناشئة تجمع مئات الملايين لكنها تفشل في تحويلها إلى إيرادات مستدامة (Gartner, 2024).

أزمة التمويل الإقليمية: في منطقة الشرق الأوسط، انخفض تمويل الشركات الناشئة بنسبة 76% في مارس 2025 ليصل إلى 127.5 مليون دولار فقط، مقارنة بـ 533 مليون دولار في فبراير (GEM, 2025). هذا الانخفاض الحاد يؤثر بشكل خاص على شركات الذكاء الاصطناعي التي تحتاج رأس مال كبير للحوسبة والبيانات، مما يؤدي إلى إغلاق مشاريع واعدة تقنيًا لكنها غير قادرة على الاستمرار ماليًا.

كما أن "الخوف من الفشل" بين الرياديين في بعض دول الشرق الأوسط ارتفع إلى 49% في 2024 (GEM, 2025)، مما يعيق إطلاق مشاريع الذكاء الاصطناعي جديدة رغم الدعم الحكومي. على المستوى العالمي، يتوقع خبراء فشل 99% من شركات AI الناشئة بحلول 2026 بسبب نقص الإيرادات والاعتماد الزائد على الضجيج (Stanford AI Index, 2025).

3. جودة البيانات واستعدادها

مشكلات البيانات مثل النظافة غير الكافية، التحيزات، أو ضعف الحوكمة تسبب تعثرًا في الإنتاجية، مما يؤدي إلى "هلوسات" (hallucinations) في النماذج (Gartner, 2024). جارتنر تؤكد أن هذا السبب الرئيسي للتخلي عن 30% من المشاريع، حيث يتطلب تحضير البيانات جهدًا يصل إلى 80% من وقت المشروع (Datanami, 2024)، وغيابه يجعل الذكاء الاصطناعي غير موثوق. في 2025، أصبحت البيانات "الذهب الأسود" لـAI، لكن معظم الشركات تفتقر إلى استراتيجيات فعالة لإدارتها (S&P Global Market Intelligence, 2025).

4. مخاطر أمنية وحوكمة غير كافية

الحوكمة الضعيفة والأمان غير الكافي يشكلان تهديدًا وجوديًا لمشاريع الذكاء الاصطناعي، حيث تشير الدراسات إلى أن 67% من الشركات التي تنفذ AI تفتقر لإطار حوكمة شامل (IBM Security, 2024). هذا النقص يؤدي إلى انتهاكات بيانات مكلفة، قرارات منحازة، وفقدان ثقة العملاء بشكل دائم.

أمثلة على المخاطر الأمنية الحرجة:

المشكلة الأساسية تكمن في نقص الشفافية والمساءلة. معظم الشركات تستخدم نماذج "الصندوق الأسود" دون فهم كيفية اتخاذ القرارات، مما يجعل تتبع الأخطاء أو التحيز مستحيلًا (MIT Technology Review, 2024). إضافة لذلك، غياب ضوابط الوصول (Access Controls) وآليات المراجعة يؤدي إلى استخدام غير مصرح به للنماذج في بيئات حساسة.

من الناحية التقنية، تفشل الشركات في تنفيذ مبدأ الامتيازات الأدنى (Least Privilege) للوكلاء، حيث يحصل الوكيل على صلاحيات واسعة دون حاجة فعلية. هذا بالإضافة إلى عدم استخدام أطر الحوكمة المعترف بها مثل NIST AI Risk Management Framework، مما يجعل المخاطر غير محسوبة أو مُدارة (NIST, 2023).

5. قيود تقنية للوكلاء (Agentic AI)

دراسات جامعية في 2025 تظهر أن وكلاء LLM يفشلون في حوالي 70% من المهام المكتبية البسيطة، مثل تنسيق الخطوات أو التعامل مع الواجهات، بسبب نقص المهارات في المهام المعقدة (The Register, 2025). هذا يجعل الاعتماد عليها في البيئات الإنتاجية مخاطرة، خاصة مع انخفاض الأداء في المهام متعددة الخطوات إلى 35% (Flaming Ltd., 2025). لذلك، يتوقع الخبراء أن 40% من مشاريع الوكلاء ستفشل بحلول 2027 بسبب مشكلات مشابهة في الأداء والتكامل (Stanford AI Index, 2025).

القضايا تتطور بسرعة، كما في دعوى Getty Images ضد Stability AI في المملكة المتحدة، حيث أسقطت Getty الادعاءات الرئيسية المتعلقة بحقوق النشر، لكن النزاع لا يزال يضيف عدم يقين قانوني حول تدريب النماذج على البيانات المحمية (Pinsent Masons, 2025; TechCrunch, 2025). في 2025، أصبحت الامتثال لقوانين مثل EU AI Act أمرًا حاسمًا، وفشل فيه يؤدي إلى غرامات أو إغلاق (Gartner, 2024).

التحديات التنظيمية القطاعية والجغرافية:

مشكلات الخصوصية والأمان رغم الجاهزية التقنية: حتى عندما تكون التكنولوجيا ناضجة، تفشل الشركات بسبب انتهاكات الخصوصية أو مخاطر الأمان. مثلاً، شركة Clearview AI واجهت دعاوى قانونية ومنع في دول متعددة رغم فعالية تقنيتها في التعرف على الوجوه، بسبب جمع البيانات دون موافقة (TechCrunch, 2025). كذلك، اختراقات البيانات في شركات الذكاء الاصطناعي تؤدي إلى خسائر تقدر بمليارات الدولارات وفقدان ثقة العملاء، حتى لو كان المنتج الأساسي ممتازًا (S&P Global Market Intelligence, 2025).

7. التركيز المفرط على الجانب التقني مقابل إهمال الأعمال والتسويق

من أكثر الأنماط شيوعًا في فشل شركات الذكاء الاصطناعي الناشئة هو الانغماس في تطوير النماذج والخوارزميات المعقدة دون إيلاء اهتمام كافٍ للجوانب التجارية والتسويقية (S&P Global Market Intelligence, 2025). كثير من المؤسسين، خاصة ذوي الخلفيات التقنية، يعتقدون أن المنتج الفني المتفوق سيبيع نفسه، لكن الواقع مختلف تمامًا.

المشكلات الشائعة في هذا النمط:

من تجربتي في هذا المجال، لاحظت أن الشركات الناجحة تخصص ما لا يقل عن 40-50% من وقتها وميزانيتها للجوانب التجارية والتسويقية منذ البداية، وليس فقط بعد إنتاج النموذج التقني (GEM, 2025). النجاح في AI يتطلب توازنًا دقيقًا بين التميز التقني والذكاء التجاري.

أمثلة سريعة على الفشل:

كيف تقيم المخاطر بسرعة (نموذج NIST AI RMF)

لتقييم المخاطر، اعتمد على إطار NIST AI Risk Management Framework (AI RMF)، الذي يوفر خطوات مبسطة: Govern، Map، Measure، Manage. هذا الإطار، الذي طورته NIST في 2023 وحدث في 2025، يساعد على دمج الثقة في AI من البداية (NIST, 2023).

نصائح تطبيقية: ابدأ بتجربة تجريبية (Pilot) صغيرة، قم بقياس التبني الفعلي، وأنشئ بوابة انتقال من PoC إلى الإنتاج مع معايير قبول صارمة. هذا يقلل الفشل ويحسن الثقة (NIST, 2023). خصص 50-70% من الجهد لجهوزية البيانات والحوكمة، لا للنموذج نفسه (Datanami, 2024).

تركيز أم تنويع؟

الاختيار بين التركيز على منتج واحد أو التنويع يعتمد على مرحلة الشركة، لكن في AI، حيث تتغير التكنولوجيا بسرعة، يجب أن يكون مدروسًا.

التركيز على منتج واحد (في المراحل المبكرة)

يتيح إثبات PMF بسرعة، بناء هوية قوية، واستخدام الموارد بكفاءة (S&P Global Market Intelligence, 2025). على سبيل المثال، شركات مثل Slack ركزت على حل واحد قبل التوسع، مما قلل التكاليف وسرع الابتكار. المخاطرة: إذا فشل المنتج، تتأثر الشركة كلها، خاصة في AI حيث يمكن أن يتجاوز الفشل 70% في المهام (The Register, 2025).

التنويع (بعد نجاح أولي)

يوزع المخاطر ويفتح أسواقًا جديدة، خاصة إذا كانت المنتجات مترابطة (مثل استخدام نفس البنية لنماذج متعددة) (S&P Global Market Intelligence, 2025). Amazon نجحت بهذا، بدءًا من الكتب إلى AI، لكن المخاطرة تكمن في تشتيت الجهود وزيادة التكاليف، مما قد يؤدي إلى تأخير الوصول إلى السوق (Gartner, 2024).

قاعدة عملية: في مراحل Seed/Pre-Seed إلى Series A المبكرة، ركز على منتج واحد حتى تحقق PMF وإيرادات متكررة (S&P Global Market Intelligence, 2025). بعد ذلك، نوّع بشكل مترابط مع إيقاع تجريبي (Pilot → Gate → Scale)، مستفيدًا من دروس الفشل مثل Forward التي فشلت بسبب التنويع غير المدروس (ICT Health, 2024).

خاتمة

من خلال تجربتي في قيادة مشاريع الذكاء الاصطناعي وإيماني العميق بإمكانياته الهائلة، أؤكد أن النجاح في AI عام 2025 ليس مرتبطًا بـ"سحر النموذج" بل باحترافية إدارة البيانات، الحوكمة، والتجريب المنضبط (NIST, 2023; S&P Global Market Intelligence, 2025). الهدف من مشاركة هذه الرؤى والاتجاهات هو تمكين رواد الأعمال من اتخاذ قرارات مدروسة وتجنب المزالق الشائعة التي شهدناها في السوق.

استخدم أرقام السوق الواقعية، اختبر قيمة قابلة للقياس قبل التوسع، وقرر التركيز أو التنويع بناءً على مرحلتك (Gartner, 2024). تذكر أن رحلة الذكاء الاصطناعي تتطلب صبرًا واستراتيجية طويلة الأمد، وأن التعلم من إخفاقات الآخرين أقل تكلفة من التعلم من أخطائنا الشخصية.

إذا طبقت هذه النصائح والدروس المستفادة، يمكنك تحويل المخاطر إلى فرص حقيقية. كقائد في هذا المجال، أدعوكم للاستفادة من هذه التجارب المشتركة وبناء مشاريع AI أكثر استدامة ونجاحًا. المستقبل مشرق للذكاء الاصطناعي، لكن النجاح يتطلب التخطيط الدقيق والتنفيذ المدروس.

المراجع

  1. Business Insider. (2024, November 13). Inside Forward's failed attempt to revolutionize the doctor's office. Business Insider. https://www.businessinsider.com/healthcare-startup-forward-shutdown-carepod-adrian-aoun-2024-11
  2. Clearview AI Legal Challenges. (2024). Privacy violations and regulatory bans across multiple jurisdictions. Various sources. Referenced in privacy and regulatory compliance failures.
  3. CIO Dive. (2025, March 14). AI project failure rates are on the rise: report. CIO Dive. https://www.ciodive.com/news/AI-project-fail-data-SPGlobal/742590/
  4. Cybersecurity Ventures. (2024, September). LLM data breach report 2024: Security vulnerabilities in enterprise AI implementations. Cybersecurity Ventures. https://cybersecurityventures.com/llm-security-report/
  5. Datanami. (2024, August 5). Gartner warns 30% of GenAI initiatives will be abandoned by 2025. Datanami. https://www.datanami.com/2024/08/05/gartner-warns-30-of-genai-initiatives-may-be-abandoned-by-2025/
  6. Flaming Ltd. (2025, July 21). AI agents failing (40% cancellations predicted). Flaming Ltd. https://flamingltd.com/ai-agents-failing-40-cancellations-predicted/
  7. Fortune. (2025, February 19). HP acquiring parts of AI Pin startup Humane for $116 million. Fortune. https://fortune.com/2025/02/19/hp-humane-deal-ai-pin-shutting-down/
  8. Fortune. (2025, July 23). AI-powered coding tool wiped out a software company's database in 'catastrophic failure'. Fortune. https://fortune.com/2025/07/23/ai-coding-tool-replit-wiped-database-called-it-a-catastrophic-failure/
  9. Gartner. (2024, July 29). Gartner predicts 30% of generative AI projects will be abandoned after proof of concept by end of 2025. Gartner Newsroom. https://www.gartner.com/en/newsroom/press-releases/2024-07-29-gartner-predicts-30-percent-of-generative-ai-projects-will-be-abandoned-after-proof-of-concept-by-end-of-2025
  10. Human Capital Management. (2024, August 12). At least 30% of GenAI projects to be abandoned by end of 2025: Gartner. Human Capital Management. https://www.hcamag.com/us/specialization/hr-technology/at-least-30-of-genai-projects-to-be-abandoned-by-end-of-2025-gartner/501028
  11. GEM (Global Entrepreneurship Monitor). (2025). Middle East startup funding trends and entrepreneurial fear patterns. GEM Regional Report 2024/2025. Referenced in regional funding analysis.
  12. IBM Security. (2024, August). AI governance survey 2024: Security risks and governance gaps in enterprise AI deployments. IBM Security Intelligence. https://www.ibm.com/security/data-breach
  13. ICT Health. (2024, December 30). Does Forward Health's failure mark the winter of telehealth? ICT Health. https://icthealth.org/news/does-forward-healths-failure-mark-the-winter-of-telehealth
  14. MIT Technology Review. (2024, October). The black box problem: Why AI explainability matters for enterprise adoption. MIT Technology Review. https://www.technologyreview.com/2024/10/15/ai-explainability-enterprise/
  15. Middle East Healthcare AI Study. (2025, April). AI adoption challenges in Middle East healthcare systems: Skills gaps and patient acceptance patterns. Regional Healthcare Technology Review. Referenced in healthcare AI implementation barriers.
  16. NIST. (2023, January). Artificial intelligence risk management framework (AI RMF 1.0). National Institute of Standards and Technology. https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf
  17. PCMag. (2025, July 22). AI agent goes rogue, deletes company's entire database. PCMag. https://www.pcmag.com/news/vibe-coding-fiasco-replite-ai-agent-goes-rogue-deletes-company-database
  18. Pinsent Masons. (2025, July 15). Getty Images v Stability AI: why the remaining copyright claims are of significance. Pinsent Masons. https://www.pinsentmasons.com/out-law/analysis/getty-images-v-stability-ai-copyright-claims-significance
  19. Reuters. (2024, March 21). Microsoft pays Inflection $650 mln in licensing deal while hiring its staff. Reuters. https://www.reuters.com/technology/microsoft-agreed-pay-inflection-650-mln-while-hiring-its-staff-information-2024-03-21/
  20. S&P Global Market Intelligence. (2025, May 30). AI experiences rapid adoption, but with mixed outcomes – Highlights from VOTE AI Machine Learning. S&P Global Market Intelligence. https://www.spglobal.com/market-intelligence/en/news-insights/research/ai-experiences-rapid-adoption-but-with-mixed-outcomes-highlights-from-vote-ai-machine-learning
  21. Stanford AI Index. (2025). Artificial intelligence index report 2025: AI startup failure predictions and agentic systems performance analysis. Stanford University Human-Centered AI Institute. https://aiindex.stanford.edu/report/
  22. TechCrunch. (2025, February 18). Humane's AI Pin is dead, as HP buys startup's assets for $116M. TechCrunch. https://techcrunch.com/2025/02/18/humanes-ai-pin-is-dead-as-hp-buys-startups-assets-for-116m/
  23. TechCrunch. (2025, June 25). Getty drops key copyright claims against Stability AI, but UK lawsuit continues. TechCrunch. https://techcrunch.com/2025/06/25/getty-drops-key-copyright-claims-against-stability-ai-but-uk-lawsuit-continues/
  24. The Register. (2025, June 29). AI agents wrong ~70% of time: Carnegie Mellon study. The Register. https://www.theregister.com/2025/06/29/ai_agents_fail_a_lot/
  25. The Wall Street Journal. (2024, June 6). FTC opens antitrust probe of Microsoft AI deal. The Wall Street Journal. https://www.wsj.com/tech/ai/ftc-opens-antitrust-probe-of-microsoft-ai-deal-29b5169a