4 أنماط شخصية لمستخدمي ChatGPT


وأوضحت الدراسة أن نهج “مقاس واحد يناسب الجميع” الذي اتبعته التقنيات السابقة لا ينطبق على تطبيقات الذكاء الاصطناعي المتنوعة.

وقال الدكتور كريستوف غيرلينغ، المعد الرئيسي للدراسة من معهد هومبولت للإنترنت والمجتمع: “يبدو استخدام الذكاء الاصطناعي بديهيا، لكن إتقانه يتطلب استكشافا وتنمية مهارات التعلم من خلال التجربة”، مضيفا أن “ملاءمة المهمة للتكنولوجيا أصبحت أكثر اعتمادا على الفرد من أي وقت مضى”.

وحلل العلماء بيانات 344 مستخدما مبكرا خلال الأشهر الأربعة الأولى من إطلاق ChatGPT للجمهور في 30 نوفمبر 2020، ووجدوا أن المستخدمين الأوائل يمكن تصنيفهم ضمن أربع مجموعات رئيسية:

إقرأ المزيد
  • المتحمسون للذكاء الاصطناعي (25.6% من المشاركين): يتميزون بالتفاعل الكبير والسعي لتحقيق فوائد إنتاجية واجتماعية من الذكاء الاصطناعي. وهم المجموعة الوحيدة التي لاحظت “حضورا اجتماعيا ملموسا” أثناء التفاعل مع روبوت الدردشة، ويتعاملون مع الأدوات كأنها أشخاص حقيقيون. كما أنهم أظهروا مستوى أعلى من الثقة بالنظام ولم يبدوا مخاوف جدية بشأن الخصوصية.
  • البراغماتيون الساذجون (20.6%): يركزون على النتائج والراحة، ويعطون الأولوية للفوائد العملية للذكاء الاصطناعي على حساب المخاوف المتعلقة بالخصوصية. وبينما يؤمنون بالفوائد العملية والمهنية، فإن اهتمامهم بالفوائد الاجتماعية أقل مقارنة بالمتحمسين للذكاء الاصطناعي.
  • المتبنون الحذرون (35.5%): يجمعون بين الفضول والعملية والحذر، ويوازنون باستمرار بين الفوائد الوظيفية والمخاطر المحتملة. وتُظهر هذه المجموعة قلقا أكبر بشأن خصوصية البيانات مقارنة بالمجموعتين السابقتين.
  • المستكشفون المتحفظون (18.3%): هم الأكثر تخوفا من التكنولوجيا، لا يزالون غير مقتنعين بفوائدها، ويبدون قلقا شديدا بشأن الخصوصية. وعلى عكس المجموعات الأخرى، لا يستطيع أفراد هذه الفئة رؤية الفوائد الشخصية لاستخدام ChatGPT.

وأثار العلماء الدهشة بأن جميع هذه المجموعات واصلت استخدام روبوتات الدردشة، رغم وجود مخاوف جدية بشأن الخصوصية لدى ثلاث من أربع مجموعات.

وحذر فريق البحث من أن محاولة إضفاء صفات بشرية على الذكاء الاصطناعي قد تأتي بنتائج عكسية، إذ قد يحمّل المستخدمون المهتمون بالخصوصية الذكاء الاصطناعي نفسه مسؤولية الانتهاكات المحتملة بدلا من الشركة المطوّرة، ما قد يؤدي إلى تآكل الثقة في النظام بوتيرة أسرع.

المصدر: ديلي ميل

(adsbygoogle = window.adsbygoogle || []).push({});

Source link
اضف تعليق
Comments (0)
Add Comment