أنباء اليوم
الخميس 21 نوفمبر 2024 11:57 صـ 20 جمادى أول 1446 هـ
 أنباء اليوم المصرية
رئيس التحريرعلى الحوفي
وزيرة التضامن الاجتماعي تجتمع بمجلس إدارة صندوق عطاء بتشكيله الجديد برئاسة شريف سامي رئيس الوزراء يتفقد القرية التراثية بالخارجة .. ومعرض ”أيادي مصر” وزير الإسكان ومحافظ دمياط يتابعان موقف خدمات مياه الشرب والصرف الصحى وزير الري يتابع إجراءات حوكمة المياه الجوفية والإدارة الرشيدة لها بمحافظة الوادي الجديد رئيس الوزراء يبدأ زيارة محافظة الوادي الجديد لتفقد وافتتاح عدد من المشروعات وزير الرياضة: لن نتخلى عن أبناء محمد شوقي لاعب كفر الشيخ وسندعم زوجته صندوق النقد الدولي: مصر تنفذ إصلاحات جوهرية للحفاظ على الاستقرار الاقتصادي نبذه عن المتحدث الرسمي باسم رئاسة الجمهورية السفير ” محمد الشناوي” ”أصالة” تروي أولى ”حكايات الطرب” في موسم الرياض محافظ الوادى الجديد: انطلاق أول ”سباق هجن” محافظ الجيزة يقود حملة لمنع الإشغالات والتعديات للمحال والمنشأت التجارية البرلمان العربي يدين تهديدات الاحتلال الإسرائيلي بضرب جمهورية العراق

الذكاء الاصطناعي وأنت

الذكاء الاصطناعي
الذكاء الاصطناعي

يمكنك الآن إضافة عبارة "لقد قام الذكاء الاصطناعي بذلك" إلى قائمة الأعذار التي قد يستخدمها الأشخاص لتجنب تحمل المسؤولية لشيء فعلوه أو قالوا.

مثال على ذلك: اعتذرت محطة إخبارية أسترالية بعد عرض صورة معدلة لعضو في البرلمان عن ولاية فيكتوريا، وادعت بعد ذلك أنه تم تحريرها بواسطة أداة الذكاء الاصطناعي في Adobe Photoshop، وفقًا لصحيفة سيدني مورنينغ هيرالد . لكن هذا الاعتذار - وعذر الذكاء الاصطناعي - لم يأت إلا بعد أن نشرت السياسية، النائب جورجي بورسيل، الصورة الأصلية لها إلى جانب الصورة المعدلة على وسائل التواصل الاجتماعي. وقالت بورسيل: "لقد تم تعديل جسدي وملابسي بواسطة أحد وسائل الإعلام". "لم يكن هذا شيئًا توقعته في يوم حافل كان فيه عضو حزب العدالة الحيوانية يضغط من أجل إجراء تغييرات على قواعد صيد البط.

كتبت بورسيل في منشورها على موقع X: "لاحظ الثديين والزي المتضخمين ليكونا أكثر كشفًا. لا أستطيع أن أتخيل حدوث هذا لعضو برلماني ذكر" .

ووصفته محطة الأخبار 9News بأنه "خطأ في الرسومات" وألقت باللوم فيه على Adobe بدلاً من الخطأ البشري. وقال مدير الأخبار هيو نيلون في بيان تم تداوله على نطاق واسع: "كما هو شائع، تم تغيير حجم الصورة لتناسب مواصفاتنا. خلال هذه العملية، قامت الأتمتة بواسطة Photoshop بإنشاء صورة لا تتوافق مع الصورة الأصلية" .

ولم تكن شركة Adobe، التي تصنع أداة تحرير الصور الشهيرة، تمتلكها وقالت إن أي تغييرات يتم إجراؤها على الصورة كانت تتطلب "تدخلًا بشريًا وموافقة ". وأصدرت المحطة الإخبارية بيانا لاحقا قالت فيه إنه كان هناك في الواقع "تدخل بشري في القرار".

في حين أن أداة الذكاء الاصطناعي ربما تكون قد أجرت تغييرات متسقة مع مرشحات الصور الشخصية، قال روب نيكولز، الأستاذ بجامعة التكنولوجيا في سيدني، لصحيفة نيويورك تايمز إن هذا لا يفسر سبب عدم قيام المحطة الإخبارية بفحص الصورة مقابل الصورة الأصلية. وقال: "إن استخدام الذكاء الاصطناعي دون ضوابط تحريرية قوية ينطوي على خطر ارتكاب أخطاء كبيرة للغاية"، مضيفًا أن الذكاء الاصطناعي يمكن أن يكرر التحيزات الموجودة. "لا أعتقد أنه من قبيل الصدفة أن تميل هذه القضايا إلى التمييز بين الجنسين."

فهل من المستغرب إذن أن يلقي بعض السياسيين اللوم على تقنيات الذكاء الاصطناعي العميقة في "الصور ومقاطع الفيديو والتسجيلات الصوتية" لأشياء ربما قالوا أو فعلوها بالفعل، حسبما ذكرت صحيفة واشنطن بوست . رفض الرئيس السابق دونالد ترامب إعلانًا على شبكة فوكس نيوز يعرض مقطع فيديو لأخطاءه العامة الموثقة جيدًا - بما في ذلك معاناته من أجل نطق كلمة "مجهول" في مونتانا وزيارته لمدينة "بليجر" في كاليفورنيا، المعروفة أيضًا باسم بارادايس، وكلاهما وقالت الصحيفة: "في عام 2018 - زعمت أن اللقطات تم إنشاؤها بواسطة الذكاء الاصطناعي"، مضيفة أن الصور الموجودة في الإعلان تمت تغطيتها على نطاق واسع و"شاهدها العديد من المراقبين المستقلين في الحياة الواقعية".

ماذا يعني كل ذلك؟ إن فصل الحقيقة عن الخيال سيصبح أكثر صعوبة. وقال هاني فريد، الأستاذ في جامعة كاليفورنيا في بيركلي، إنه بغض النظر عن التزييف العميق، فإن الذكاء الاصطناعي يخلق ما يسميه "أرباح الكذابين".

وقال للصحيفة: "عندما تضبط ضابط شرطة أو سياسيًا وهو يقول شيئًا فظيعًا، فإن لديهم إمكانية إنكار معقولة" في عصر الذكاء الاصطناعي.

فيما يلي الإجراءات الأخرى في الذكاء الاصطناعي التي تستحق اهتمامك.

هل هو حقيقي أم الذكاء الاصطناعي؟

لا توجد أداة سحرية، على الأقل حتى الآن، يمكنها التمييز بين الصوت والفيديو والنص الناتج عن الذكاء الاصطناعي والمساعي الإبداعية التي ينشئها الإنسان. لكنني أذكر أن مشروع محو الأمية الإخبارية غير الحزبي وغير الربحي يحتوي على رسم بياني مفيد من صفحة واحدة يقدم "ستة أفكار جديدة لمحو الأمية وتأثيراتها التي يجب وضعها في الاعتبار مع استمرار تطور هذه التكنولوجيا."

رقم 5 هو أن الذكاء الاصطناعي "يشير إلى تغيير في طبيعة الأدلة... لا تدع تكنولوجيا الذكاء الاصطناعي تقوض رغبتك في الثقة بأي شيء تراه وتسمعه" في الأخبار. "فقط كن حذرًا بشأن ما تقبله على أنه أصيل."

لذلك عندما يتعلق الأمر بالصور ومقاطع الفيديو، تذكر أن "ظهور الصور ومقاطع الفيديو المزيفة الأكثر إقناعًا يعني أن العثور على مصدر وسياق العناصر المرئية غالبًا ما يكون أكثر أهمية من البحث عن أدلة مرئية تثبت صحتها. أي صورة سريعة الانتشار لا يمكنك التحقق منها من خلال مصدر موثوق - باستخدام البحث العكسي عن الصور، على سبيل المثال - ينبغي التعامل معه بعين الشك."

ومن ناحية منشئ المحتوى، سأضيف أنه لمجرد أنه يمكنك إنشاء شيء ما باستخدام أداة الذكاء الاصطناعي - لأي عدد من الأسباب المشروعة - لا يعني ذلك بالضرورة أنه يجب عليك ذلك. مثال على ذلك: قامت Instacart بحذف بعض صور الطعام التي تم إنشاؤها بواسطة الذكاء الاصطناعي في وصفاتها عبر الإنترنت والتي كانت "غريبة جدًا"، وفقًا لما ذكره موقع Business Insider .

وقال إنسايدر : "بدأت الصور تثير الدهشة على موقع Instacart subreddit في أوائل شهر يناير، عندما بدأ المستخدمون في تجميع السخافات المفضلة لديهم ". تتميز صور الذكاء الاصطناعي بتركيبات مستحيلة ماديًا وظلال غير طبيعية وأنسجة ممزوجة بشكل غريب. "على سبيل المثال، أظهرت الصور المصاحبة لوصفة 'Chicken Inasal' دجاجتين ملتصقتين عند الكتف، بينما أظهرت صورة 'Hot Dog Stir Fry' شريحة من النقانق ذات الملمس الداخلي للطماطم،" كتب Insider.

أخبرت Instacart موقع Insider أنها تقوم بتجربة الذكاء الاصطناعي لإنشاء صور للطعام وتعمل على تحسين ما تقدمه للقراء. وقال Instacart: "عندما نتلقى تقارير عن محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي ولا يقدم تجربة عالية الجودة للمستهلك، يقوم فريق oru بمراجعة المحتوى وقد يقوم بإزالته".

نتوقع رؤية المزيد من هذه الأنواع من التجارب لأن التكنولوجيا لا تزال في مهدها. وقالت شركة Forrester Research في توقعاتها لهذا العام: "احتلت اللغة والنص الصدارة في عام 2023، لكن الصورة والفيديو ستشهد ارتفاعًا في عام 2024" . "بينما كان عام 2023 عامًا من الإثارة والتجريب والمراحل الأولى من التبني الجماعي، سيكون عام 2024 عامًا للتوسع والتحسين وحل المشكلات الصعبة التي تميز نفسك كبطل خارق في عالم يتمتع فيه الجميع بقوى خارقة."

Google Bard يدخل في الصورة

أعلنت شركة Google، التي تعمل على تحديث نظام Bard للذكاء الاصطناعي للمحادثة من أجل التنافس بشكل أفضل مع برامج الدردشة المنافسة مثل ChatGPT، هذا الأسبوع في منشور بالمدونة أنه يمكن للمستخدمين الآن إنشاء صور مجانًا كجزء من تحديث تحويل النص إلى صورة.

عندما يكتب شخص ما مطالبة، مثل "قم بإنشاء صورة لمنطاد هواء ساخن يطير فوق الجبال عند غروب الشمس"، يقوم Bard بإنشاء ما تصفه Google بأنه "مرئيات مخصصة وواسعة النطاق للمساعدة في جلب فكرتك إلى الحياة"، ليزا من CNET تقارير لاسي ، الذي جرب وظيفة تحويل النص إلى صورة.

"أشار منشور Google إلى أن Bard يتضمن تمييزًا بين العناصر المرئية التي تم إنشاؤها باستخدام Bard والأعمال الفنية البشرية الأصلية، ويقوم بتضمين علامات مائية في وحدات بكسل الصور التي تم إنشاؤها. ولاختبار ذلك، طلبت منه إنشاء صورة لميلاد كوكب الزهرة لبوتيتشيلي. لقد عرضت وقالت: "نسخة طبق الأصل، لكنها أكثر قذارة"، مشيرة إلى مشاكل الوجه واليدين في الصورة. قد يكون هذا هو السبب وراء تقديم Bard أيضًا خيارًا للإبلاغ عن مشكلة قانونية وإعطاء كل صورة إعجابًا أو إعجابًا.

ومع كل الحديث عن استخدام الذكاء الاصطناعي لإنشاء صور مزيفة - مع كون تايلور سويفت الضحية الأبرز في الأسابيع الأخيرة - أشار لاسي إلى أن جوجل تهدف إلى الحد من "المحتوى العنيف أو المسيء أو الجنسي الصريح" وتطبيق المرشحات لتجنب الجيل من صور الأشخاص المذكورين. في الواقع، لقد رفضت إنشاء صورة للاعبي الوسط في Super Bowl، باتريك ماهومز وبروك بوردي، وهما يتنزهان أو بيونسيه في البنك.

أبل تثير الذكاء الاصطناعي، وكوك "متحمس بشكل لا يصدق" مهما كان الأمر

استخدم الرئيس التنفيذي تيم كوك مكالمة الأرباح الربع سنوية لشركة Apple لمشاركة الأخبار التي ترى الشركة أنها "فرصة كبيرة لشركة Apple مع الجيل الجديد من الذكاء الاصطناعي والذكاء الاصطناعي" هذا العام وأن "لدينا كل ما يحدث داخليًا".

وقال كوك: "لدينا بعض الأشياء التي نحن متحمسون لها بشكل لا يصدق والتي سنتحدث عنها في وقت لاحق من هذا العام"، متجاهلاً المزيد من الأسئلة حول خطط أبل للذكاء الاصطناعي. "إن أسلوبنا، إذا صح التعبير، كان دائمًا هو القيام بالعمل ثم التحدث عن العمل، وعدم الخروج أمام أنفسنا. ولذا فإننا سنربط ذلك بهذا أيضًا."

ظهرت تقارير في يوليو الماضي تفيد بأن شركة Apple كانت تعمل على روبوت محادثة يعمل بالذكاء الاصطناعي يسمى Apple GPT ونموذج لغة كبير يسمى Ajax، لكن الشركة لم تعلق في ذلك الوقت، كما تقول ليزا لاسي من CNET، التي استمعت إلى المكالمة. وتضيف أن شركة آبل "كانت حتى الآن غائبة بشكل واضح عن جنون الذكاء الاصطناعي التوليدي الذي اجتاح شركات التكنولوجيا الكبرى. وقد أمضت شركات جوجل ومايكروسوفت وOpenAI وغيرها العام الماضي في تحسين برامج الدردشة الآلية الخاصة بهم أثناء تنافسهم على حصة في السوق. لكن الأمر صعب للغاية "على العلامة التجارية لشركة Apple أن تأخذ وقتها قبل الدخول في فئة منتج جديد - ثم تقوم بعد ذلك بتحويل تلك المساحة بالكامل. لا تنظر إلى أبعد من منتجات مثل iPhone وiPad."

بعد أسبوع من قيام أحد الممثلين السيئين بإرسال مكالمة آلية لتزوير صوت الرئيس جو بايدن وإخبار الآلاف من ناخبي نيو هامبشاير بعدم التصويت في الانتخابات التمهيدية الرئاسية، اقترحت رئيسة لجنة الاتصالات الفيدرالية جيسيكا روزنورسيل أن تتعرف الوكالة على المكالمات التي تم إجراؤها باستخدام الذكاء الاصطناعي. الأصوات التي يتم إنشاؤها هي أصوات "مصطنعة" بموجب قانون حماية المستهلك الهاتفي (TCPA)، الأمر الذي من شأنه أن يجعل تقنية استنساخ الصوت المستخدمة في عمليات الاحتيال الشائعة في المكالمات الآلية التي تستهدف المستهلكين غير قانونية.

"إن استنساخ الصوت والصور التي ينتجها الذكاء الاصطناعي يؤدي بالفعل إلى إثارة الارتباك من خلال خداع المستهلكين للاعتقاد بأن عمليات الاحتيال والاحتيال مشروعة. وبغض النظر عن المشاهير أو السياسيين الذين تفضلهم، أو ما هي علاقتك مع أقاربك عندما يطلبون المساعدة، فمن الممكن أننا وقال روزنوورسيل في بيان صحفي "يمكن أن يكون الجميع هدفا لهذه المكالمات المزيفة" .

وقالت لجنة الاتصالات الفيدرالية (FCC) إن هذه الخطوة تعتمد على "إشعار التحقيق" الذي أطلقته في نوفمبر لاستكشاف طرق حول كيفية مكافحة المكالمات الآلية غير القانونية، بما في ذلك تلك التي تستخدم تقنية الذكاء الاصطناعي.

إن قانون TCPA، الذي تم سنه في عام 1991، هو القانون الأساسي الذي تقول لجنة الاتصالات الفيدرالية إنها تستخدمه للحد من المكالمات غير المرغوب فيها، ويمكن أن يساعد التوسع في تعريف الأصوات الاصطناعية المدعين العامين في الولايات على ملاحقة الجهات الفاعلة السيئة. يقيد قانون TCPA "إجراء مكالمات التسويق عبر الهاتف واستخدام أنظمة الاتصال الهاتفي التلقائي والرسائل الصوتية المصطنعة أو المسجلة مسبقًا. وبموجب قواعد لجنة الاتصالات الفيدرالية (FCC)، فإنه يتطلب أيضًا من المسوقين عبر الهاتف الحصول على موافقة كتابية صريحة مسبقة من المستهلكين قبل الاتصال بهم آليًا. وإذا تم سن هذا الإعلان بنجاح، وقالت لجنة الاتصالات الفيدرالية (FCC): إن الحكم سيضمن أن المكالمات الصوتية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تخضع أيضًا لنفس المعايير.

في حال كنت تتساءل عما إذا كانت الوكالة قد طاردت أي شخص يستخدم القانون، ذكرت شبكة CNN أنه "تم استخدامه في حملات القمع ضد المكالمات الآلية، بما في ذلك قضية ضد الناشطين المحافظين جاكوب وول وجاك بوركمان لقيامهما بحملة قمع الناخبين خلال فترة الانتخابات الرئاسية". انتخابات 2020. دفعت الحملة التي قام بها وول وبوركمان لجنة الاتصالات الفيدرالية إلى تغريمهما 5 ملايين دولار ، وهو رقم قياسي في ذلك الوقت.

على جبهة المكالمات الآلية، تم إجراء ما يقرب من 55 مليار مكالمة آلية في الولايات المتحدة العام الماضي، ارتفاعًا من 50.3 مليار في عام 2022، وفقًا لـ YouMail، وهي خدمة حظر المكالمات الآلية . لذا، نعم، أنت على حق في اعتقادك أنك تتلقى المزيد من المكالمات المزعجة هذه الأيام.

تقول شركة OpenAI أنه من المحتمل ألا يتم استخدام الذكاء الاصطناعي الخاص بها لصنع أسلحة بيولوجية

أصدرت شركة OpenAI، الشركة المصنعة لـ ChatGPT، دراسة هذا الأسبوع بعد أن طلبت من 50 خبيرًا في علم الأحياء و50 طالبًا اختبار ما إذا كان نموذجها اللغوي الكبير، GPT-4، " لديه القدرة على مساعدة المستخدمين على صنع أسلحة بيولوجية ضارة ".

هذا النوع من الأخبار الجيدة: قبل أن يقولون إن LLM "يوفر على الأكثر زيادة طفيفة في دقة إنشاء التهديد البيولوجي." وأضافوا أن هناك حاجة لمزيد من الدراسة.

قالت OpenAI إنها تريد أن تنظر إلى مثال افتراضي "قد يستخدم فيه ممثل خبيث نموذجًا عالي القدرة لتطوير بروتوكول خطوة بخطوة، أو استكشاف أخطاء إجراءات المختبر الرطب، أو حتى تنفيذ خطوات عملية إنشاء التهديد البيولوجي بشكل مستقل عندما يتم إعطاؤها" الوصول إلى الأدوات" لإجراء التجارب في السحابة.

وكجزء من هذا العمل، قالت الشركة إنها تعمل على بناء " نظام إنذار مبكر لطلاب ماجستير الإدارة القادرين على المساعدة في إنشاء التهديدات" . وتبين أن النماذج الحالية، على الأكثر، مفيدة إلى حد ما لهذا النوع من سوء الاستخدام، وسنواصل تطوير مخطط التقييم الخاص بنا للمستقبل."

ويأتي هذا العمل في الوقت الذي وقع فيه الرئيس جو بايدن أمرًا تنفيذيًا في أكتوبر لوضع ضمانات للذكاء الاصطناعي، بما في ذلك الحماية من التكنولوجيا المستخدمة في صنع أسلحة كيميائية أو بيولوجية أو إشعاعية أو نووية . وفي الوقت نفسه، أنشأت شركة OpenAi فريقًا "للاستعداد" لتقييم التهديدات الناجمة عن تقنيتها .

كل ما تحتاج لمعرفته حول ChatGPT

عند الحديث عن OpenAI وChatGPT، هناك شيئان آخران يستحقان الذكر.

أولاً، إذا كنت تبحث عن ملخص لكيفية عمل ChatGPT وكيفية تطورها، فإن ستيفن شانكلاند من CNET لديه شرح مباشر لما تحتاج إلى معرفته حول الأداة التي تم إصدارها في نوفمبر 2022. يتضمن ذلك قصة أصلها وكيفية استخدام ChatGPT.

كتب شانكلاند: "لم يعد ChatGPT وتقنية الذكاء الاصطناعي التي تقف وراءه مفاجأة بعد الآن، ولكن تتبع ما يمكن أن يفعله يمكن أن يمثل تحديًا مع وصول قدرات جديدة". "والجدير بالذكر أن OpenAI يتيح الآن لأي شخص كتابة تطبيقات ذكاء اصطناعي مخصصة تسمى GPTs ومشاركتها على متجر التطبيقات الخاص به. وبينما تقود OpenAI شحنة الذكاء الاصطناعي التوليدي، فإن Microsoft وGoogle والشركات الناشئة تتابعها بشدة على نطاق واسع."

ثانيًا، قالت OpenAI إنها دخلت في شراكة مع Common Sense Media ، "المنظمة غير الربحية التي تقوم بمراجعة وتصنيف مدى ملاءمة الوسائط والتكنولوجيا المختلفة للأطفال، للتعاون في إرشادات الذكاء الاصطناعي والمواد التعليمية للآباء والمعلمين والشباب"، وفقًا لما ذكرته TechCrunch .

يتضمن ذلك وضع "ملصقات غذائية" على التطبيقات التي تعمل بالذكاء الاصطناعي والتي تسلط الضوء على كيفية مساعدة أو إيذاء الأطفال والمراهقين والعائلات، بما في ذلك تنظيم تلك التطبيقات المخصصة التي ذكرها شانكلاند والتي يتم تقديمها الآن في متجر GPT الجديد الخاص بـ OpenAI .

وقال جيمس بي ستاير، الرئيس التنفيذي والمؤسس لشركة Common Sense Media، في بيان: "سيتم تصميم أدلةنا وتنظيمنا لتثقيف العائلات والمعلمين حول الاستخدام الآمن والمسؤول لـ ChatGPT، حتى نتمكن بشكل جماعي من تجنب أي عواقب غير مقصودة لهذه التكنولوجيا الناشئة". .

دع إعادة التدريب الوظيفي تبدأ

في دراسة استقصائية أجريت في شهر يناير حول من وكيف سيتم اعتماد الذكاء الاصطناعي والذكاء الاصطناعي التوليدي، وجدت مجموعة بوسطن الاستشارية أن "الذكاء الاصطناعي التوليدي سيحدث ثورة في العالم - ويريد المسؤولون التنفيذيون الاستفادة منه" بعد استطلاع آراء 1406 مديرًا تنفيذيًا على مستوى C في 14 صناعة حول العالم. العالم. بينما قال المسؤولون التنفيذيون إنهم يخططون لاستثمار المزيد في الذكاء الاصطناعي وتقنيات الذكاء الاصطناعي العام في عام 2024 (85%)، وأنهم يتوقعون رؤية مكاسب في الإنتاجية وتوفير في التكاليف من اعتماد هذه الأدوات الجديدة، فمن الواضح أن الشيطان يظل يكمن في التفاصيل. فيما يلي بعض نقاط البيانات المثيرة للاهتمام حول استخدام الذكاء الاصطناعي في الوظيفة وبين الموظفين التي قمت بسحبها من التقرير:

  • قال 95% من المديرين التنفيذيين إنهم يسمحون الآن باستخدام الذكاء الاصطناعي والذكاء الاصطناعي العام في العمل، "بداية من يوليو 2023، عندما كان أكثر من 50% لا يشجعون مثل هذا الاستخدام".

  • قال 66% ممن شملهم الاستطلاع إنهم "غير راضين تمامًا أو متناقضون بشأن التقدم الذي أحرزته مؤسساتهم في مجال الذكاء الاصطناعي والذكاء الاصطناعي التوليدي حتى الآن، وأهم ثلاثة أسباب هي الافتقار إلى المواهب والمهارات، وخرائط الطريق غير الواضحة، وعدم وجود استراتيجية شاملة للاستخدام المسؤول".

  • وقال المسؤولون التنفيذيون إن 46% من القوى العاملة لديهم، في المتوسط، "سيحتاجون إلى الخضوع لتحسين المهارات في السنوات الثلاث المقبلة بسبب جيل الذكاء الاصطناعي". حتى الآن، تمكنت 6% فقط من الشركات التي شملتها الدراسة من تدريب أكثر من ربع موظفيها على أدوات الذكاء الاصطناعي العامة.

  • يوافق 74% من المشاركين على أن "إدارة التغيير المهمة مطلوبة" للتعامل مع تبني الذكاء الاصطناعي العام.

  • قال 59% من هؤلاء القادة إن لديهم "ثقة محدودة أو معدومة في كفاءة فريقهم التنفيذي في مجال الذكاء الاصطناعي العام". أوه.

  • يعتقد 65% من المديرين التنفيذيين أن الذكاء الاصطناعي وجيل الذكاء الاصطناعي سيستغرقان عامين على الأقل "لتجاوز الضجيج".

  • وأخيرًا وليس آخرًا، يقول 71% إنهم يركزون على "التجارب المحدودة والطيارين الصغار" مع الذكاء الاصطناعي وجيل الذكاء الاصطناعي.

TL;DR من BCG: يجب على الشركات أن تستثمر، وأن تعيد تدريب العاملين، وأن تكتشف كيف سيتناسب الذكاء الاصطناعي وجيل الذكاء الاصطناعي مع استراتيجيتها اليوم، حتى لا تتخلف عن الركب. لكن الشركة قالت إن الفائزين سيحتاجون إلى التأكد من أنهم يطبقون مبادئ الذكاء الاصطناعي المسؤولة (RAI).

سوف تساعدك أمازون على التسوق مع مساعد الذكاء الاصطناعي المسمى Rufus

في حال لم تكن تنفق ما يكفي من الوقت أو المال على أمازون، فقد أصدر أكبر موقع للتجارة الإلكترونية في العالم للتو برنامج دردشة آلي جديد مدعوم من الجيل A لمساعدتك في اتخاذ قرارات الشراء.

قالت الشركة، التي تسمى Rufus ، في منشور بالمدونة إنها "مساعد تسوق خبير تم تدريبه على كتالوج منتجات أمازون والمعلومات من جميع أنحاء الويب للإجابة على أسئلة العملاء حول احتياجات التسوق والمنتجات والمقارنات، وتقديم توصيات بناءً على هذا السياق، وتسهيل اكتشاف المنتج في نفس تجربة التسوق التي يستخدمها العملاء على أمازون بانتظام."

سيتم إطلاق Rufus في الولايات المتحدة في الأول من فبراير "لمجموعة فرعية صغيرة من العملاء في تطبيق Amazon للهاتف المحمول" وسيتم إتاحته لعملاء الهاتف المحمول الآخرين في الولايات المتحدة في الأسابيع المقبلة.

أمازون، التي تقول إنها تستخدم الذكاء الاصطناعي منذ أكثر من 25 عامًا لدعم توصيات منتجاتها، واختيار المسارات في مراكز التنفيذ الخاصة بها، ورسم خريطة لعمليات التوصيل بدون طيار، والمساعدة في إعطاء الصوت لمساعدها الصوتي Alexa، يقول روفوس، استنادًا إلى تقنية الذكاء الاصطناعي للمحادثة، لتغيير جميع تجارب العملاء التي نعرفها تقريبًا."

كيف؟ من خلال الجمع بين المراجعات التي أنشأها المستخدمون لتحديد "الموضوعات المشتركة" ومنح المتسوقين "رؤى"، مثل عدد الأشخاص الآخرين الذين اشتروا كل ما تبحث عنه. كما أنها تستخدم الذكاء الاصطناعي لمساعدة البائعين على موقعها على "كتابة عناوين وأوصاف منتجات أكثر جاذبية وفعالية". ستتمكن أيضًا من التسوق حسب "المناسبة أو الغرض"، مما يقترح على سبيل المثال ما تحتاج إلى شرائه لبدء حديقة داخلية.

وفي حال كنت تتساءل لماذا أطلقوا عليه اسم روفوس، فقد ذكرت صحيفة نيويورك تايمز أن "أمازون تسمح لموظفيها بإحضار كلابهم إلى العمل، وكان كلب يدعى روفوس من أوائل الذين تجولوا في مكاتبها في الأيام الأولى للشركة" ".

يشعر الجيل Z بالقلق من أن الذكاء الاصطناعي سيحل محلهم، لكن لا بأس به في تشغيل زملاء العمل

بدلاً من الانتهاء بمفردات الأسبوع، فكرت في مشاركة استطلاع من EduBirdie، وهي منصة للكتابة، والتي قررت النظر في كيفية استخدام GenZ للذكاء الاصطناعي وChatGPT في مكان العمل. طلبت الشركة من 2000 فرد من جيل Z (الذين ولدوا بعد عام 1996، على حد قولها) الإجابة على الأسئلة المتعلقة بجيل الذكاء الاصطناعي. وهنا أهم الوجبات السريعة.

  • من المرجح أن يستخدم GenZ ChatGPT في العمل لإجراء أبحاثهم (قال 61% أنهم استخدموا الذكاء الاصطناعي لتقصي الحقائق)، بينما قال 23% أنهم استخدموا الأداة للحصول على وظيفة في المقام الأول. (أعتقد أنهم ليسوا قلقين بشأن مشكلة الهلوسة عندما يتعلق الأمر بالذكاء الاصطناعي والحقائق.)

  • واجه واحد من كل خمسة من أفراد الجيل Z الذين شاركوا في الدراسة مشكلة بسبب استخدام ChatGPT في العمل، حيث قال 2% إنهم طُردوا من العمل، و5% على وشك أن يُطردوا من العمل، و6% قالوا إنه "تم إخبارهم".

  • قال 36% إنهم شعروا بالذنب تجاه استخدام ChatGPT لمساعدتهم على أداء مهام العمل.

  • يخشى واحد من كل 10 أجيال من الجيل Z أن يتولى الذكاء الاصطناعي وظيفته في عام 2024، حيث قال 47% إنهم يعتقدون أن ذلك محتمل جدًا أو ممكن هذا العام.

  • 61% يعتقدون أن الذكاء الاصطناعي يمكن أن يتولى وظيفتهم في غضون عقد من الزمن.

  • يقول 49% أن ChatGPT جعلهم أكثر إبداعًا، وقال 49% إنه ساعدهم على تقليل التوتر، وقال 46% إنه ساعدهم على أن يصبحوا أكثر إنتاجية، وقال 15% إنهم حصلوا على المزيد من المال بفضل ChatGPT.

  • 35% من الجيل Z لن يمانعوا إذا حل الذكاء الاصطناعي محل أحد زملائهم، مع اعتبار عبارة "سأهتم كثيرًا" و"سيكون خطأهم لعدم العمل بجدية أكبر" هي السبب وراء عدم اهتمامهم بالبعض من زملائهم. (أوه.)

  • المصدر/ cnet

موضوعات متعلقة