في غضون سنوات قليلة فقط، أصبح الذكاء الاصطناعي جزءًا لا يتجزأ من عمليات الأعمال اليومية، حيث تتحرك العديد من الشركات بسرعة لأتمتة العمليات والاعتماد على الأنظمة قائمة على الذكاء الاصطناعي. ولكن وفقًا لـ جورج ماير، الخبير الاستراتيجي وخبير الأنظمة، يمكن أن تأتي السرعة والراحة بتكلفة، خاصة عندما تفقد الشركات الرؤية حول كيفية عمل أنظمتها الأكثر أهمية فعليًا.
يحذر ماير من أن أحد أكبر المخاطر هو الشعور الزائف بالفهم. "قد تعتقد الشركات أنها تعرف ما يجري بسبب المطالبات التي قدمتها"، يوضح، "لكنها لا تمتلك رؤية حقيقية لما يحدث داخل الصندوق."

أنظمة الذكاء الاصطناعي الحديثة، وخاصة نماذج اللغة الكبيرة، قوية لكن يصعب فحصها بالكامل. عملياتها الداخلية ليست شفافة دائمًا، ويمكن أن تختلف مخرجاتها بسبب العشوائية المدمجة. وهذا يخلق تحديات حول الاتساق والموثوقية، خاصة عندما يُستخدم الذكاء الاصطناعي في وظائف الأعمال الأساسية. "هناك مخاطر خفية على القابلية للتكرار والموثوقية"، يقول ماير، "والتي يمكن أن تكون كارثية عندما تؤثر على قلب الشركة."
بالنسبة لماير، الحل ليس تجنب الذكاء الاصطناعي، بل ضمان بقاء الفهم البشري مركزيًا. لا تزال الشركات بحاجة إلى أشخاص يعرفون كيفية عمل الأنظمة، حتى لو كانت هذه الأنظمة مدعومة بالذكاء الاصطناعي.
مكاسب قصيرة الأجل، مخاطر طويلة الأجل
قلق آخر يسلط ماير الضوء عليه هو التأثير طويل الأجل للذكاء الاصطناعي على الخبرة داخل المؤسسات. بينما يمكن للذكاء الاصطناعي تسريع سير العمل بشكل كبير والمساعدة في تحويل المعرفة إلى عمل، فإن الاعتماد المفرط عليه قد يأتي بعواقب غير مقصودة.
"كل من الاعتماد المفرط والاعتماد الأقل يمكن أن يكون محفوفًا بالمخاطر"، يقول ماير. "يمكن للذكاء الاصطناعي تقليل الوقت اللازم لتطبيق الخبرة، لكنه يثير سؤالًا مهمًا، كيف ندرب الجيل القادم من الخبراء إذا لم يطوروا الأساسيات أبدًا؟"
على المدى القصير، يمكن للذكاء الاصطناعي أن يجعل الفرق أكثر إنتاجية. ولكن إذا بدأ الموظفون في الاعتماد عليه في التفكير الأساسي وحل المشكلات، فإن الشركات تخاطر بفقدان الخبرة اللازمة للتعامل مع المواقف المعقدة أو غير المتوقعة أو المواقف التي تحتاج إلى لمسة إنسانية. يعتقد ماير أن الشركات والمعلمين على حد سواء بحاجة إلى أن يكونوا متعمدين بشأن الحفاظ على المعرفة الأساسية، خاصة للسيناريوهات التي لا يمكن الاعتماد فيها على الذكاء الاصطناعي.
المساءلة لا تزال للبشر
ربما تكون القضية الأكثر أهمية التي يثيرها ماير هي المساءلة. مع تولي أنظمة الذكاء الاصطناعي المزيد من المسؤولية، قد تميل بعض المؤسسات إلى تحويل اللوم عندما تسوء الأمور. ماير واضح في أن هذا ليس نهجًا قابلاً للتطبيق.
"المساءلة، ونظيرتها القانونية، المسؤولية، مرتبطة بشكل أساسي بالبشر"، يقول. "لا يمكنك أن تغسل يديك من نتيجة سيئة بالقول 'الذكاء الاصطناعي فعل ذلك.'"
يشير إلى أن العديد من الشركات تحاول بالفعل التنقل في هذه المنطقة الرمادية. غالبًا ما يتضمن مقدمو الذكاء الاصطناعي إخلاء مسؤولية بأن أنظمتهم يمكن أن ترتكب أخطاء، بينما تروج صناعات مثل السيارات لميزات "القيادة الذاتية" ولكنها لا تزال تحمل السائق البشري المسؤولية. ومع ذلك، يجادل ماير بأنه إذا كانت الأنظمة مستقلة حقًا، فيجب أن تنتقل المسؤولية إلى أولئك الذين يصممونها وينشرونها.
ينطبق هذا حتى في حالات الاستخدام اليومية الأصغر. على سبيل المثال، لا يمكن للشركات التي تستخدم الذكاء الاصطناعي لبناء تطبيقات تتعامل مع بيانات حساسة أن تفترض أن التكنولوجيا ستدير أمن الحساب بشكل صحيح. "الذكاء الاصطناعي ليس مؤتمنًا على البيانات"، يقول ماير. "الشركة هي."








