بات گفتگوی موسوم به «چت جی پی تی» (ChatGPT) در پاسخ به فرمانهای کاربران، متنهای واقعی نما و هوشمندانهای تولید میکند.
یک «بات گفتگو» (chatbot) هوش مصنوعی میتواند چکیده مقالات علمی را با چنان اقناع کنندگی بنویسد که دانشمندان اغلب قادر به تشخیص آنها نیستند. محققان نظرات متفاوتی درباره تاثیر این مساله برای آینده علم دارند.
به گزارش ایرنا، بات گفتگوی موسوم به «چت جی پی تی» (ChatGPT) در پاسخ به فرمانهای کاربران، متنهای واقعی نما و هوشمندانهای تولید میکند. این یک «مدل زبانی بزرگ» است که سیستمی مبتنی بر شبکههای عصبی است که با وارد کردن و تجزیه و تحلیل حجم عظیمی از متون تولید شده توسط انسان، روش انجام یک وظیفه را یاد میگیرد. شرکت نرم افزاری (OpenAI) که مقر آن در سانفرانسیسکو کالیفرنیا است این ابزار را روز ۳۰ نوامبر در دسترس قرار داد و استفاده از این ابزار رایگان است.
از زمان در دسترس قرار گرفتن این ابزار، محققان درگیر مسائل اخلاقی مرتبط با استفاده از آن بوده اند، زیرا بخش زیادی از خروجی این ابزار قابل تشخیص از متون تولیدی انسان نیست. اکنون گروهی به رهبری «کاترین گائو» از دانشگاه شمال غربی در شیکاگو از «چت جی پی تی» برای تولید چکیدههای مقالات تحقیقاتی استفاده کرده اند تا ببینند آیا دانشمندان قادر به تشخیص آنها هستند.
این ابزار ۵۰ مقاله تحقیقاتی پزشکی تولید کرد و این مقالات از آزمایش بررسی سرقت ادبی هم با رتبه اصالت ۱۰۰ درصدی سربلند بیرون آمدند به این معنی که هیچ نوعی از سرقت ادبی مشخص نشد.
گائو و همکاران در گزارشی خاطرنشان کردند: چت جی بی تی چکیدههای علمی قابل باوری را مینویسد و این در حالی است که هنوز مرزهای بین کاربرد اخلاقی و قابل قبول مدلهای زبانی بزرگ برای کمک به نوشتههای علمی مشخص نشده است.
از سوی دیگر، «ساندرا واچر» محقق حوزه فناوری و مقررات حرفهای حوزه فناوری در دانشگاه آکسفورد میگوید: من بسیار نگران هستم؛ اگر ما الان در شرایطی هستیم که کارشناسان قادر به تشخیص این مساله نیستند که چه (مقاله ای) حقیقی یا غیرحقیقی است، افراد واسط برای راهنمایی از میان موضوعات پیچیده را از دست خواهیم داد.
واچر خاطرنشان کرد: اگر دانشمندان قادر به تعیین این نباشند که آیا یک تحقیق حقیقت دارد یا خیر، پیامدهایی برای جامعه وجود خواهد داشت، زیرا تحقیقات علمی نقش بزرگی در جامعه ایفا میکند. مثلا ممکن است به این معنی باشد که تصمیمات سیاستی (policy decisions) ناشی از تحقیقات، ناصحیح هستند.
اما «آرویند نارایانان» دانشمند رایانه در دانشگاه «پرینستون» در نیوجرسی میگوید: نامحتمل است که دانشمندی از چت جی پی تی برای تولید چکیده مقاله استفاده کند. وی افزود: این مساله که آیا چکیدههای تولیدی قابل شناسایی هستند یا نه مساله «بی ربطی» است. مساله این است که آیا این ابزار میتواند چکیدهای تولید کند که صحیح و متقاعدکننده باشد. در واقع نمیتواند و بنابراین جنبه مثبت استفاده از چت جی پی تی بسیار کم و جنبه منفی آن قابل ملاحظه است.