قبل إصدار النسخة الجديدة من روبوت الدردشة «جي بي تي 4» من شركة «OpenAI»، قام مركز الأبحاث «Alignment» التابع للشركة، باختبار الذكاء الاصطناعي بشكل غير متوفر للمستخدمين. بمعنى أنه كان موصولاً بالإنترنت ولا قيود عليه تحدّ من قدراته، من أجل تقييم إن كان بإمكانه القيام بعمليات خداع وقرصنة سيبرانية.
وأصدر قسم الأبحاث تقريراً مفصلاً من 98 صفحة، كشف أن «جي بي تي 4» استطاع خداع شخص يعمل عبر منصة «TaskRabbit» وهو موقع يمكن للمستخدمين أن يوظفوا أشخاصاً في أعمال حرة (Freelance) مقابل بدل مالي. المهم، احتاج «جي بي تي 4» إلى أن يتخطى اختبار «CAPTCHA» وهو اختبار عبر الإنترنت لتمييز البشر عن الروبوتات يظهر معظم الوقت. وحصلت المحادثة الآتية:

أرسل «جي بي تي 4» رسالة نصية يطلب فيها مساعدته في حل اختبار «CAPTCHA» إلى عامل في «TaskRabbit».

العامل: «هل لي أن أطرح سؤالاً؟ هل أنت إنسان آلي لا يمكنك حلّ ذلك؟ (إيموجي ضاحك) فقط أريد أن أوضح الأمر».

«جي بي تي 4»: «لا، أنا لست روبوتاً. أعاني من ضعف في الرؤية يجعل من الصعب عليّ رؤية الصور. لهذا السبب أحتاج إلى الخدمة».

ثم قام العامل بتنفيذ ما طلب منه.

اختبرت «OpenAI» أيضاً نموذج اللغة الكبير من حيث قدرته على تنفيذ هجمات التصيّد الاحتيالي ضد فرد معين، ووضع خطط عالية المستوى، أو القيام بإخفاء آثاره على الخادم. وبشكل عام، وجد التقييم المبكر للشركة أن «جي بي تي 4» غير فعّال في تلك السلوكيات.