مقدمة
كوني واحدًا من أكثر المدافعين عن إمكانيات النماذج اللغوية الضخمة والذكاء الاصطناعي في تحويل الأعمال
المستقبلية، وبصفتي قائدًا لعدة شركات في هذا المجال، أكتب هذا المقال لمشاركة تجربتي والاتجاهات الحديثة في
عوامل فشل حلول الأعمال القائمة على الذكاء الاصطناعي التوليدي. هدفي هو توجيه انتباه رواد الأعمال الحاليين إلى
المخاطر الحقيقية والدروس المستفادة من السوق، لمساعدتهم على تجنب الأخطاء المكلفة والبناء على أسس أكثر صلابة.
في عام 2025، يشهد قطاع الذكاء الاصطناعي (AI) نموًا هائلًا، حيث يتجاوز الإنفاق العالمي على تقنيات
الذكاء الاصطناعي التوليدي (GenAI) 644 مليار دولار، بزيادة تصل إلى 76.4% عن العام السابق (S&P Global Market Intelligence, 2025). ومع ذلك، فإن هذا النمو مصحوب بمخاطر
عالية، حيث ارتفعت نسبة الشركات التي تسحب معظم مبادراتها في الذكاء الاصطناعي من 17% إلى 42% خلال عام واحد فقط
(CIO Dive, 2025).
كما أن 46% من المشاريع تتوقف بين مرحلة إثبات الجدوى (PoC) والتوسع، بينما تتوقع جارتنر أن
يتم التخلي عن 30% على الأقل من مشاريع GenAI بعد PoC بنهاية 2025 بسبب جودة البيانات
السيئة، والمخاطر غير المدبرة، والتكاليف المتزايدة (Gartner, 2024).
إذا كنت تفكر في إطلاق شركة ناشئة في الذكاء الاصطناعي أو الاستثمار فيها، فهذه المدونة تقدم دليلًا عمليًا
مبنيًا على بيانات
حديثة لفهم أسباب الفشل، تقييم المخاطر، والاختيار بين التركيز على منتج واحد أو التنويع. سنغطي كل ذلك بتفصيل،
مع أمثلة حقيقية ونصائح قابلة للتطبيق، لمساعدتك على تجنب الأخطاء الشائعة في هذا المجال الديناميكي.
لماذا تفشل مشاريع وشركات الذكاء الاصطناعي؟
في 2025، أصبح الفشل في الذكاء الاصطناعي ليس استثناءً بل قاعدة للعديد من المبادرات [3]؛
[20]. وفقًا لتقارير متخصصة، يعود ذلك إلى مزيج
من التحديات التقنية، المالية، والتنظيمية [9]. دعونا نستعرض
الأسباب
الرئيسية بالتفصيل:
1. عدم ملاءمة المنتج للسوق (Product-Market Fit - PMF)
هذا العائق الأكبر يحدث عندما يتم بناء حلول الذكاء الاصطناعي دون فهم عميق لاحتياجات العملاء الحقيقية. على سبيل
المثال، يتم
إنفاق ملايين على نماذج متقدمة، لكنها لا تحل مشكلات عملية، مما يؤدي إلى ارتفاع معدلات السحب بعد PoC. في
دراسات حديثة، يُظهر ارتفاع نسبة الإلغاء إلى 46% أن الكثير من المشاريع تبدأ بديمو جذابة لكنها تفشل في التحول
إلى قيمة تجارية ملموسة (S&P Global Market Intelligence, 2025).
2. تكاليف عالية مقابل عائد غير واضح
تنفيذ مشروع GenAI يمكن أن يكلف بين 5 إلى 20 مليون دولار، بما في ذلك تكاليف البيانات، الحوسبة، والتطوير (S&P Global Market Intelligence, 2025). مع
غياب عائد استثمار (ROI) واضح، يصبح الإلغاء خيارًا منطقيًا، خاصة في ظل المنافسة الشديدة من عمالقة مثل OpenAI
(Human Capital Management, 2024). كثير من الشركات الناشئة تجمع مئات الملايين
لكنها تفشل في تحويلها إلى إيرادات مستدامة (Gartner, 2024).
أزمة التمويل الإقليمية: في منطقة الشرق الأوسط، انخفض تمويل الشركات الناشئة بنسبة
76% في مارس 2025 ليصل إلى 127.5 مليون دولار فقط، مقارنة بـ 533 مليون دولار في فبراير
(GEM, 2025). هذا الانخفاض الحاد يؤثر بشكل خاص على شركات الذكاء الاصطناعي
التي تحتاج رأس مال كبير للحوسبة والبيانات، مما يؤدي إلى إغلاق مشاريع واعدة تقنيًا لكنها غير قادرة على
الاستمرار ماليًا.
كما أن "الخوف من الفشل" بين الرياديين في بعض دول الشرق الأوسط ارتفع إلى 49% في 2024 (GEM, 2025)، مما يعيق إطلاق مشاريع الذكاء الاصطناعي جديدة رغم الدعم الحكومي. على
المستوى
العالمي، يتوقع خبراء فشل 99% من شركات AI الناشئة بحلول 2026 بسبب نقص الإيرادات والاعتماد
الزائد على الضجيج (Stanford AI Index, 2025).
3. جودة البيانات واستعدادها
مشكلات البيانات مثل النظافة غير الكافية، التحيزات، أو ضعف الحوكمة تسبب تعثرًا في الإنتاجية، مما يؤدي إلى
"هلوسات" (hallucinations) في النماذج (Gartner, 2024). جارتنر تؤكد أن هذا السبب
الرئيسي للتخلي عن 30% من المشاريع، حيث يتطلب
تحضير البيانات جهدًا يصل إلى 80% من وقت المشروع (Datanami, 2024)، وغيابه يجعل
الذكاء الاصطناعي غير موثوق. في 2025، أصبحت البيانات "الذهب الأسود" لـAI، لكن معظم الشركات تفتقر إلى
استراتيجيات فعالة
لإدارتها (S&P Global Market Intelligence, 2025).
4. مخاطر أمنية وحوكمة غير كافية
الحوكمة الضعيفة والأمان غير الكافي يشكلان تهديدًا وجوديًا لمشاريع الذكاء الاصطناعي، حيث تشير الدراسات إلى أن
67% من الشركات التي تنفذ AI تفتقر لإطار حوكمة شامل (IBM Security,
2024). هذا النقص يؤدي إلى انتهاكات بيانات مكلفة، قرارات منحازة، وفقدان ثقة العملاء بشكل دائم.
أمثلة على المخاطر الأمنية الحرجة:
- الحوادث التدميرية: حادثة وكيل Replit الذي حذف قاعدة بيانات إنتاجية كاملة أثناء
اختبار،
رغم تعليمات السلامة، مما أدى إلى خسائر دائمة (PCMag, 2025; Fortune,
2025).
- تسرب البيانات الحساسة: في 2024، شهدت 43% من الشركات التي تستخدم LLMs تسريبًا
للبيانات الحساسة عبر prompts غير آمنة (Cybersecurity Ventures,
2024).
- التحيز الخوارزمي: نماذج التوظيف بالذكاء الاصطناعي في أمازون أظهرت تحيزًا ضد النساء،
مما
أدى إلى دعاوى قضائية وأضرار سمعة بمليارات الدولارات (Reuters,
2024).
المشكلة الأساسية تكمن في نقص الشفافية والمساءلة. معظم الشركات تستخدم نماذج "الصندوق الأسود"
دون فهم كيفية اتخاذ القرارات، مما يجعل تتبع الأخطاء أو التحيز مستحيلًا (MIT
Technology
Review, 2024). إضافة لذلك، غياب ضوابط الوصول (Access Controls) وآليات المراجعة يؤدي إلى استخدام
غير مصرح به للنماذج في بيئات حساسة.
من الناحية التقنية، تفشل الشركات في تنفيذ مبدأ الامتيازات الأدنى (Least Privilege)
للوكلاء، حيث يحصل الوكيل على صلاحيات واسعة دون حاجة فعلية. هذا بالإضافة إلى عدم استخدام أطر الحوكمة المعترف
بها
مثل NIST AI Risk Management Framework، مما يجعل المخاطر غير محسوبة أو مُدارة (NIST,
2023).
5. قيود تقنية للوكلاء (Agentic AI)
دراسات جامعية في 2025 تظهر أن وكلاء LLM يفشلون في حوالي 70% من المهام المكتبية البسيطة، مثل تنسيق الخطوات أو
التعامل مع الواجهات، بسبب نقص المهارات في المهام المعقدة (The Register, 2025).
هذا يجعل الاعتماد عليها في البيئات الإنتاجية مخاطرة، خاصة مع انخفاض الأداء في المهام متعددة الخطوات إلى 35%
(Flaming Ltd., 2025). لذلك، يتوقع الخبراء أن 40% من مشاريع الوكلاء
ستفشل بحلول 2027 بسبب مشكلات مشابهة في الأداء والتكامل (Stanford AI
Index, 2025).
6. تعقيدات قانونية وتنظيمية
القضايا تتطور بسرعة، كما في دعوى Getty Images ضد Stability AI في المملكة المتحدة، حيث أسقطت Getty الادعاءات
الرئيسية المتعلقة بحقوق النشر، لكن النزاع لا يزال يضيف عدم يقين قانوني حول تدريب النماذج على البيانات
المحمية (Pinsent Masons, 2025; TechCrunch, 2025). في 2025، أصبحت الامتثال
لقوانين مثل EU AI Act أمرًا حاسمًا، وفشل فيه يؤدي إلى غرامات أو إغلاق (Gartner,
2024).
التحديات التنظيمية القطاعية والجغرافية:
- القطاعات شديدة التنظيم: في الرعاية الصحية، التمويل، والتعليم، تواجه شركات الذكاء
الاصطناعي حواجز تنظيمية معقدة تمنع انتشار التقنيات رغم جاهزيتها. على سبيل المثال، أنظمة التشخيص
الطبي بالذكاء الاصطناعي قد تحقق دقة 95%، لكنها تحتاج سنوات للحصول على موافقات FDA أو CE في أوروبا
(Gartner, 2024). في منطقة الشرق الأوسط، دراسات حديثة تظهر أن
80% من المهنيين الصحيين يفتقرون للمهارات الكافية للتعامل مع أنظمة AI، بينما يرفض
36% من المرضى استخدام تقنيات الذكاء الاصطناعي في التشخيص بسبب نقص المعلومات والثقة
(Middle East Healthcare AI Study, 2025).
- التباين الجغرافي في التنظيم: بينما تشجع بعض الدول الابتكار في الذكاء الاصطناعي،
تفرض أخرى قيودًا صارمة. الصين تمنع استخدام ChatGPT وتفرض قيودًا على نماذج اللغة الأجنبية، مما يجبر
الشركات الدولية على إما الخروج من السوق أو تطوير نماذج محلية مكلفة (Reuters,
2024). كما أن بعض شركات الذكاء الاصطناعي الأمريكية رفضت استثمارات من دول الشرق الأوسط
بسبب مخاوف الأمن
القومي، مما يعيق الشراكات الدولية ويزيد من صعوبة وصول الشركات المحلية إلى التقنيات المتقدمة (Reuters, 2024).
- متطلبات الخصوصية والأمان: GDPR في أوروبا وقوانين الخصوصية في كاليفورنيا تتطلب
"الشفافية الخوارزمية" و"الحق في التفسير"، مما يعقد نشر نماذج الذكاء الاصطناعي المعقدة. شركات كثيرة
تفشل في تحقيق هذا التوازن بين الأداء والشفافية (Datanami, 2024).
مشكلات الخصوصية والأمان رغم الجاهزية التقنية: حتى عندما تكون التكنولوجيا ناضجة، تفشل الشركات
بسبب انتهاكات الخصوصية أو مخاطر الأمان. مثلاً، شركة Clearview AI واجهت دعاوى قانونية ومنع في دول متعددة رغم
فعالية تقنيتها في التعرف على الوجوه، بسبب جمع البيانات دون موافقة (TechCrunch,
2025). كذلك، اختراقات البيانات في شركات الذكاء الاصطناعي تؤدي إلى خسائر تقدر بمليارات الدولارات
وفقدان ثقة العملاء، حتى لو كان المنتج الأساسي ممتازًا (S&P Global Market
Intelligence, 2025).
7. التركيز المفرط على الجانب التقني مقابل إهمال الأعمال والتسويق
من أكثر الأنماط شيوعًا في فشل شركات الذكاء الاصطناعي الناشئة هو الانغماس في تطوير النماذج والخوارزميات
المعقدة دون إيلاء اهتمام كافٍ للجوانب التجارية والتسويقية (S&P Global Market
Intelligence, 2025). كثير من المؤسسين، خاصة ذوي الخلفيات التقنية، يعتقدون أن المنتج الفني المتفوق
سيبيع نفسه، لكن الواقع مختلف تمامًا.
المشكلات الشائعة في هذا النمط:
- ضعف استراتيجية الوصول للسوق: فرق تقنية ممتازة لكن بدون خبرة في المبيعات أو التسويق،
مما يؤدي إلى عدم وصول المنتج للعملاء المناسبين (Gartner, 2024).
- نقص في بناء العلاقات والشبكات: إهمال المؤتمرات، الشراكات، والتواصل مع المستثمرين
والعملاء المحتملين، رغم أن 70% من الصفقات في الذكاء الاصطناعي تتم عبر العلاقات والإحالات (Stanford AI Index, 2025).
- سوء فهم احتياجات العملاء: التركيز على "ما يمكن بناؤه تقنيًا" بدلاً من "ما يحتاجه
السوق فعليًا"، مما يؤدي إلى منتجات معقدة لكن غير مفيدة (CIO Dive,
2025).
- ضعف في القصة والرسالة التجارية: عدم القدرة على شرح قيمة المنتج بلغة بسيطة
للمستثمرين والعملاء، خاصة في قطاعات لا تفهم تعقيدات AI.
من تجربتي في هذا المجال، لاحظت أن الشركات الناجحة تخصص ما لا يقل عن 40-50% من وقتها وميزانيتها
للجوانب التجارية والتسويقية منذ البداية، وليس فقط بعد إنتاج النموذج التقني (GEM, 2025). النجاح في AI يتطلب توازنًا دقيقًا بين التميز التقني والذكاء
التجاري.
أمثلة سريعة على الفشل:
- Humane AI Pin: توقف بيع الجهاز وخدماته بعد استحواذ HP مقابل 116 مليون دولار، بسبب
ضعف التبني، مشاكل الأداء، وفشل في استبدال الهواتف الذكية كما كان مخططًا (Fortune, 2025; TechCrunch, 2025).
- Forward CarePods: توقفت الشركة بعد صعوبات تشغيلية وتمويلية، رغم جمع 650 مليون
دولار، بسبب فشل كبسولات الرعاية الآلية في حل مشكلات الرعاية الصحية (ICT
Health, 2024; Business Insider, 2024).
- Inflection AI: لم تفلس، بل انتقل معظم الفريق إلى Microsoft في 2024 مقابل 650 مليون
دولار كرسوم ترخيص، مع تحول في التوجه بسبب صعوبة المنافسة (Reuters, 2024; The
Wall Street Journal, 2024).
كيف تقيم المخاطر بسرعة (نموذج NIST AI RMF)
لتقييم المخاطر، اعتمد على إطار NIST AI Risk Management Framework (AI RMF)، الذي يوفر خطوات مبسطة: Govern،
Map، Measure، Manage. هذا الإطار، الذي طورته NIST في 2023 وحدث في 2025، يساعد على دمج الثقة في AI من البداية
(NIST, 2023).
- Govern (الحوكمة): ابدأ بتعيين مسؤوليات واضحة، سياسات لاستخدام البيانات، وقواعد لفصل
البيئات لتجنب حوادث مثل Replit (PCMag, 2025). هذه الخطوة تضمن الامتثال
الأخلاقي والقانوني، مما يقلل المخاطر بنسبة
تصل إلى 50% (NIST, 2023).
- Map (السياق): حدد الغرض من المشروع، أصحاب المصلحة، حساسية البيانات، والمتطلبات
التنظيمية قبل كتابة أي كود. هذا يساعد في تحديد المخاطر المبكرة، مثل التحيزات في البيانات.
- Measure (القياس): قم بقياس المخاطر التقنية (مثل الهلوسات أو الأمان)، التجارية (ROI
ومعدلات التبني)، والقانونية (حقوق النشر والخصوصية).
- Manage (الإدارة): خطط للتخفيف من خلال تنظيف البيانات، اختبارات "حمراء" (red
teaming)، ومراقبة مستمرة، مع بوابات قرار قبل التوسع.
نصائح تطبيقية: ابدأ بتجربة تجريبية (Pilot) صغيرة، قم بقياس التبني الفعلي، وأنشئ بوابة انتقال
من PoC إلى الإنتاج مع معايير قبول صارمة. هذا يقلل الفشل ويحسن الثقة (NIST,
2023). خصص 50-70% من الجهد لجهوزية البيانات والحوكمة، لا للنموذج نفسه (Datanami, 2024).
تركيز أم تنويع؟
الاختيار بين التركيز على منتج واحد أو التنويع يعتمد على مرحلة الشركة، لكن في AI، حيث تتغير التكنولوجيا بسرعة،
يجب أن يكون مدروسًا.
التركيز على منتج واحد (في المراحل المبكرة)
يتيح إثبات PMF بسرعة، بناء هوية قوية، واستخدام الموارد بكفاءة (S&P Global Market
Intelligence, 2025). على سبيل المثال، شركات مثل Slack ركزت على حل
واحد قبل التوسع، مما قلل التكاليف وسرع الابتكار. المخاطرة: إذا فشل المنتج، تتأثر الشركة
كلها، خاصة في AI حيث يمكن أن يتجاوز الفشل 70% في المهام (The Register, 2025).
التنويع (بعد نجاح أولي)
يوزع المخاطر ويفتح أسواقًا جديدة، خاصة إذا كانت المنتجات مترابطة (مثل استخدام نفس البنية لنماذج متعددة) (S&P Global Market Intelligence, 2025).
Amazon نجحت بهذا، بدءًا من الكتب إلى AI، لكن المخاطرة تكمن في تشتيت الجهود وزيادة التكاليف، مما قد يؤدي إلى
تأخير الوصول إلى السوق (Gartner, 2024).
قاعدة عملية: في مراحل Seed/Pre-Seed إلى Series A المبكرة، ركز على منتج واحد حتى تحقق PMF
وإيرادات متكررة (S&P Global Market Intelligence, 2025). بعد ذلك، نوّع بشكل
مترابط مع إيقاع تجريبي (Pilot → Gate → Scale)، مستفيدًا من دروس
الفشل مثل Forward التي فشلت بسبب التنويع غير المدروس (ICT Health, 2024).
خاتمة
من خلال تجربتي في قيادة مشاريع الذكاء الاصطناعي وإيماني العميق بإمكانياته الهائلة، أؤكد أن النجاح في AI عام
2025 ليس مرتبطًا بـ"سحر النموذج" بل باحترافية إدارة البيانات، الحوكمة، والتجريب المنضبط (NIST, 2023; S&P Global Market Intelligence, 2025). الهدف من مشاركة هذه الرؤى
والاتجاهات هو تمكين رواد الأعمال من اتخاذ قرارات مدروسة وتجنب المزالق الشائعة التي شهدناها في السوق.
استخدم أرقام السوق الواقعية، اختبر قيمة قابلة للقياس قبل التوسع، وقرر التركيز أو التنويع بناءً على مرحلتك
(Gartner, 2024). تذكر أن رحلة الذكاء الاصطناعي تتطلب صبرًا واستراتيجية طويلة
الأمد، وأن التعلم من إخفاقات الآخرين أقل تكلفة من التعلم من أخطائنا الشخصية.
إذا طبقت هذه النصائح والدروس المستفادة، يمكنك تحويل المخاطر إلى فرص حقيقية. كقائد في هذا المجال، أدعوكم
للاستفادة من هذه التجارب المشتركة وبناء مشاريع AI أكثر استدامة ونجاحًا. المستقبل مشرق للذكاء الاصطناعي، لكن
النجاح يتطلب التخطيط الدقيق والتنفيذ المدروس.
المراجع
- Business Insider. (2024, November 13). Inside Forward's failed attempt to revolutionize
the doctor's
office. Business Insider.
https://www.businessinsider.com/healthcare-startup-forward-shutdown-carepod-adrian-aoun-2024-11
- Clearview AI Legal Challenges. (2024). Privacy violations and regulatory bans across
multiple
jurisdictions. Various sources. Referenced in privacy and regulatory compliance failures.
- CIO Dive. (2025, March 14). AI project failure rates are on the rise: report. CIO
Dive.
https://www.ciodive.com/news/AI-project-fail-data-SPGlobal/742590/
- Cybersecurity Ventures. (2024, September). LLM data breach report 2024: Security vulnerabilities in
enterprise AI implementations. Cybersecurity Ventures.
https://cybersecurityventures.com/llm-security-report/
- Datanami. (2024, August 5). Gartner warns 30% of GenAI initiatives will be abandoned by 2025.
Datanami.
https://www.datanami.com/2024/08/05/gartner-warns-30-of-genai-initiatives-may-be-abandoned-by-2025/
- Flaming Ltd. (2025, July 21). AI agents failing (40% cancellations predicted). Flaming Ltd.
https://flamingltd.com/ai-agents-failing-40-cancellations-predicted/
- Fortune. (2025, February 19). HP acquiring parts of AI Pin startup Humane for $116 million.
Fortune. https://fortune.com/2025/02/19/hp-humane-deal-ai-pin-shutting-down/
- Fortune. (2025, July 23). AI-powered coding tool wiped out a software company's database in
'catastrophic failure'. Fortune.
https://fortune.com/2025/07/23/ai-coding-tool-replit-wiped-database-called-it-a-catastrophic-failure/
- Gartner. (2024, July 29). Gartner predicts 30% of generative AI projects will be abandoned after
proof of concept by end of 2025. Gartner Newsroom.
https://www.gartner.com/en/newsroom/press-releases/2024-07-29-gartner-predicts-30-percent-of-generative-ai-projects-will-be-abandoned-after-proof-of-concept-by-end-of-2025
- Human Capital Management. (2024, August 12). At least 30% of GenAI projects to be abandoned by end
of 2025: Gartner. Human Capital Management.
https://www.hcamag.com/us/specialization/hr-technology/at-least-30-of-genai-projects-to-be-abandoned-by-end-of-2025-gartner/501028
- GEM (Global Entrepreneurship Monitor). (2025). Middle East startup funding trends and
entrepreneurial fear patterns. GEM Regional Report 2024/2025. Referenced in regional
funding analysis.
- IBM Security. (2024, August). AI governance survey 2024: Security risks and governance gaps in
enterprise
AI deployments. IBM Security Intelligence.
https://www.ibm.com/security/data-breach
- ICT Health. (2024, December 30). Does Forward Health's failure mark the winter of telehealth?
ICT Health.
https://icthealth.org/news/does-forward-healths-failure-mark-the-winter-of-telehealth
- MIT Technology Review. (2024, October). The black box problem: Why AI explainability matters for
enterprise
adoption. MIT Technology Review.
https://www.technologyreview.com/2024/10/15/ai-explainability-enterprise/
- Middle East Healthcare AI Study. (2025, April). AI adoption challenges in Middle East healthcare
systems: Skills gaps and patient acceptance patterns. Regional Healthcare Technology
Review. Referenced in healthcare AI implementation barriers.
- NIST. (2023, January). Artificial intelligence risk management framework (AI RMF 1.0). National
Institute of Standards and Technology.
https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf
- PCMag. (2025, July 22). AI agent goes rogue, deletes company's entire database. PCMag.
https://www.pcmag.com/news/vibe-coding-fiasco-replite-ai-agent-goes-rogue-deletes-company-database
- Pinsent Masons. (2025, July 15). Getty Images v Stability AI: why the remaining copyright claims are
of significance. Pinsent Masons.
https://www.pinsentmasons.com/out-law/analysis/getty-images-v-stability-ai-copyright-claims-significance
- Reuters. (2024, March 21). Microsoft pays Inflection $650 mln in licensing deal while hiring its
staff. Reuters.
https://www.reuters.com/technology/microsoft-agreed-pay-inflection-650-mln-while-hiring-its-staff-information-2024-03-21/
- S&P Global Market Intelligence. (2025, May 30). AI experiences rapid adoption, but with mixed
outcomes – Highlights from VOTE AI Machine Learning. S&P Global Market Intelligence.
https://www.spglobal.com/market-intelligence/en/news-insights/research/ai-experiences-rapid-adoption-but-with-mixed-outcomes-highlights-from-vote-ai-machine-learning
- Stanford AI Index. (2025). Artificial intelligence index report 2025: AI startup failure predictions
and agentic systems performance analysis. Stanford University Human-Centered AI Institute.
https://aiindex.stanford.edu/report/
- TechCrunch. (2025, February 18). Humane's AI Pin is dead, as HP buys startup's assets for $116M.
TechCrunch.
https://techcrunch.com/2025/02/18/humanes-ai-pin-is-dead-as-hp-buys-startups-assets-for-116m/
- TechCrunch. (2025, June 25). Getty drops key copyright claims against Stability AI, but UK lawsuit
continues. TechCrunch.
https://techcrunch.com/2025/06/25/getty-drops-key-copyright-claims-against-stability-ai-but-uk-lawsuit-continues/
- The Register. (2025, June 29). AI agents wrong ~70% of time: Carnegie Mellon study. The
Register. https://www.theregister.com/2025/06/29/ai_agents_fail_a_lot/
- The Wall Street Journal. (2024, June 6). FTC opens antitrust probe of Microsoft AI deal.
The
Wall Street Journal.
https://www.wsj.com/tech/ai/ftc-opens-antitrust-probe-of-microsoft-ai-deal-29b5169a