أدرجت الشبكة العصبية ChatGPT الأسبوع الماضي أستاذ القانون جوناثان تورلي على قائمة المحامين المزعوم تورطهم في قصة غير قانونية، لكن هذه الاتهامات باطلة، والمعلومات مأخوذة من مقال غير موجود في صحيفة “واشنطن بوست”. وتحدث خبير تكنولوجيا المعلومات الروسي روديون قديروف لصحيفة “غازيتا. رو” عن المعلومات المضللة المتعلقة باستخدام الشبكات العصبية.
وأشار المتخصص إلى أن مشكلة المحامي “ليست مجرد حادثة معزولة”، بل هي “مثال على قدرة النماذج اللغوية الحديثة، مثل ChatGPT من OpenAI، توليد معلومات كاذبة تعرض سمعة الناس وحتى حياتهم للخطر”. ولاحظ قديروف أن الأمر المثير للقلق بشكل خاص هو أن “الهلوسة” المتعلقة بالشبكات العصبية أصبحت طبيعية وتنشأ بسبب خصوصيات عملها.
وأوضح الخبير أن مثل هذه الإخفاقات تحدث عندما تبدأ نماذج الذكاء الاصطناعي في محاولة للإجابة على أي طلب، بـ”اصطناع” المعلومات. ويحدث هذا عندما يتطلب الأمر حجما معينا من المعلومات، بينما لا تحتوي الشبكة العصبية على بيانات كافية لإكماله.
وأوضح المتخصص: “على سبيل المثال، إذا طلبت من شبكة عصبية ذكر 10 أسماء مرتبطة بحدث ما، فيمكنها أن تأتي بسبعة خبراء، حتى لو كانت على علم في الواقع بثلاثة أسماء فقط”.
ولا تقتصر المشكلة المتعلقة بهذا النوع من المعلومات الخاطئة على النص فقط. وفي مارس الماضي، نشرت تصور يُزعم أنها تُظهر اعتقال الرئيس الأمريكي السابق دونالد ترامب. وتم إنشاء هذه الصور المزيفة باستخدام الذكاء الاصطناعي، وبعد ذلك انتشرت على شبكات التواصل الاجتماعي.
لقد سلط الخبير الضوء أيضا على عدم وجود ضوابط فعالة من جانب منصات التواصل الاجتماعي، فضلا عن الحاجة إلى معايير ولوائح أكثر صرامة لاستخدام الذكاء الاصطناعي في مثل هذه المجالات الحساسة”. ودعا الناس إلى الاهتمام بجودة المحتوى والانتباه إلى التفاصيل لأن جودة النسخة المزيفة غالبا ما تكون أقل من جودة المحتوى الأصلي.
المصدر: كومسومولسكايا برافدا
(adsbygoogle = window.adsbygoogle || []).push({});
Source link