4 أنماط شخصية لمستخدمي ChatGPT

احصل على تحديثات في الوقت الفعلي مباشرة على جهازك ، اشترك الآن.


وأوضحت الدراسة أن نهج “مقاس واحد يناسب الجميع” الذي اتبعته التقنيات السابقة لا ينطبق على تطبيقات الذكاء الاصطناعي المتنوعة.

وقال الدكتور كريستوف غيرلينغ، المعد الرئيسي للدراسة من معهد هومبولت للإنترنت والمجتمع: “يبدو استخدام الذكاء الاصطناعي بديهيا، لكن إتقانه يتطلب استكشافا وتنمية مهارات التعلم من خلال التجربة”، مضيفا أن “ملاءمة المهمة للتكنولوجيا أصبحت أكثر اعتمادا على الفرد من أي وقت مضى”.

وحلل العلماء بيانات 344 مستخدما مبكرا خلال الأشهر الأربعة الأولى من إطلاق ChatGPT للجمهور في 30 نوفمبر 2020، ووجدوا أن المستخدمين الأوائل يمكن تصنيفهم ضمن أربع مجموعات رئيسية:

إقرأ المزيد

ChatGPT يقيّد الوصول للمحتوى الحساس عبر ميزة التحقق من العمر

  • المتحمسون للذكاء الاصطناعي (25.6% من المشاركين): يتميزون بالتفاعل الكبير والسعي لتحقيق فوائد إنتاجية واجتماعية من الذكاء الاصطناعي. وهم المجموعة الوحيدة التي لاحظت “حضورا اجتماعيا ملموسا” أثناء التفاعل مع روبوت الدردشة، ويتعاملون مع الأدوات كأنها أشخاص حقيقيون. كما أنهم أظهروا مستوى أعلى من الثقة بالنظام ولم يبدوا مخاوف جدية بشأن الخصوصية.
  • البراغماتيون الساذجون (20.6%): يركزون على النتائج والراحة، ويعطون الأولوية للفوائد العملية للذكاء الاصطناعي على حساب المخاوف المتعلقة بالخصوصية. وبينما يؤمنون بالفوائد العملية والمهنية، فإن اهتمامهم بالفوائد الاجتماعية أقل مقارنة بالمتحمسين للذكاء الاصطناعي.
  • المتبنون الحذرون (35.5%): يجمعون بين الفضول والعملية والحذر، ويوازنون باستمرار بين الفوائد الوظيفية والمخاطر المحتملة. وتُظهر هذه المجموعة قلقا أكبر بشأن خصوصية البيانات مقارنة بالمجموعتين السابقتين.
  • المستكشفون المتحفظون (18.3%): هم الأكثر تخوفا من التكنولوجيا، لا يزالون غير مقتنعين بفوائدها، ويبدون قلقا شديدا بشأن الخصوصية. وعلى عكس المجموعات الأخرى، لا يستطيع أفراد هذه الفئة رؤية الفوائد الشخصية لاستخدام ChatGPT.

وأثار العلماء الدهشة بأن جميع هذه المجموعات واصلت استخدام روبوتات الدردشة، رغم وجود مخاوف جدية بشأن الخصوصية لدى ثلاث من أربع مجموعات.

وحذر فريق البحث من أن محاولة إضفاء صفات بشرية على الذكاء الاصطناعي قد تأتي بنتائج عكسية، إذ قد يحمّل المستخدمون المهتمون بالخصوصية الذكاء الاصطناعي نفسه مسؤولية الانتهاكات المحتملة بدلا من الشركة المطوّرة، ما قد يؤدي إلى تآكل الثقة في النظام بوتيرة أسرع.

المصدر: ديلي ميل

(adsbygoogle = window.adsbygoogle || []).push({});

Source link

اضف تعليق
اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.

هذا الموقع يستخدم خدمة أكيسميت للتقليل من البريد المزعجة. اعرف المزيد عن كيفية التعامل مع بيانات التعليقات الخاصة بك processed.