أوسلو نيوز – متابعات:
دراسة حديثة أشرف عليها باحثون في OpenAI أظهرت مطور ChatGPT ونشرتها جامعة كورنيل ، أن نماذج لغة الذكاء الاصطناعي ، المعروفة باسم LLM (نماذج اللغات الكبيرة) ، تؤثر على مهام العمل اليومية لما يصل إلى 80 شخصًا بطريقة واحدة أو آخر، النسبة المئوية للقوى العاملة في الولايات المتحدة.
وفقا لموقع aitnews ، ذكرت الدراسة أن حوالي 20% من العمال سيجدون أن التكنولوجيا الجديدة ستتولى ما يقرب من نصف مسؤولياتهم في غضون الأعوام القليلة المقبلة.
وتشير الدراسة إلى أن الذكاء الاصطناعي سيؤثر على المهن المختلفة بنسب مختلفة ، حيث سيكون العاملون في المجال العلمي من بين الأقل تضررا، بينما الأشخاص ذوو المهن الكتابية والإدارية والعاملين في المجالات الإبداعية مثل منتجي المحتوى ومطوري البرمجيات ، إلخ، سيكون العاملون في مجال التسويق من بين الفئات المتضررة.
لاحظ مؤلفو الدراسة أن التأثير المقصود ليس بالضرورة سلبيًا ويعكس درجة إستفادة القطاعات المذكورة أعلاه من تقنيات الذكاء الاصطناعي ، وهذا لا يعني أن هذه التكنولوجيا ستحل محل العمالة في المناطق المتأثرة ، بل تدعم وتساعد في معظمها حالات.
فحصت الدراسة قدرات نموذج GPT-4 الذي أعلنت عنه شركة OpenAI الأسبوع الماضي، حقق النموذج الجديد أداءً بشريًا على عدة مستويات بعد إجتيازه سلسلة من الاختبارات المهنية والأكاديمية، إجتاز النموذج الجديد الاختبار ، الذي يحاكي امتحان الممارسة لمهنة المحاماة ، بترتيب وضعه ضمن أفضل 10 في المائة من الخريجين.
تتمثل إحدى الفوائد الرئيسية لنماذج لغة الذكاء الإصطناعي مثل ChatGPT في أنها تزيد من الإبداع والإنتاجية من خلال توفير المساعدة والإلهام لمستخدميها، على سبيل المثال ، أعلنت Google و Microsoft مؤخرًا أنهما تدمجان ميزات AI في خدمات كتابة النصوص التي يمكن أن تساعد المستخدمين في كتابة المحتوى وتحسينه.
وبالمثل فإن ChatGPT هي أداة يمكن أن تساعد رواد الأعمال على ابتكار أفكار جديدة أو مساعدتهم على تطوير مشاريعهم. يمكن للذكاء الاصطناعي أيضًا تقليل الأعباء الإدارية من خلال تولي المهام الروتينية والسماح للموظفين بالتركيز على المهام الأكثر أهمية.
ومع ذلك ، فإن هذه التقنية تنطوي أيضا على تحديات ومخاطر ، مثل ضمان جودة المحتوى وموثوقيته ، حيث إن نماذج الذكاء الإصطناعي عرضة لإنتاج مخرجات غير صحيحة أو غير مناسبة يجب التحقق منها ومراجعتها من قبل خبراء بشريين، يجب أن يطور مستخدمو التكنولوجيا مهاراتهم في التفكير النقدي والتحقق من صحة المعلومات لتقييم صحة المخرجات.
التحدي الآخر الذي تطرحه هذه التكنولوجيا هو أنها يمكن أن تكون متحيزة من خلال عكس البيانات التي تم التدريب عليها. على سبيل المثال ، قد تنشئ منظمة العفو الدولية محتوى يميز ضد مجموعات معينة أو ينتهك حقوق الملكية الفكرية. لذلك ، يجب أن يكون المستخدمون على دراية بالآثار الأخلاقية والاجتماعية لمخرجات الذكاء الإصطناعي.
المصدر: مساحات