bato-adv
هوش مصنوعی در دسترس‌تر و خطرناک‌تر از همیشه

دروغ‌های شاخداری که منشا انسانی ندارند

دروغ‌های شاخداری که منشا انسانی ندارند
این روز‌ها اتفاق‌های حیرت‌آوری در دنیای هوش‌مصنوعی در جریان است که البته همه آن‌ها خوب نیستند. حالا همه در مورد سیستم‌هایی مثل ChatGPT صحبت می‌کنند؛ سیستمی که می‌تواند متنی را تولید کنند که گویا یک انسان آن را خلق کرده. شاید استفاده از این سیستم، سرگرم‌کننده و بامزه به نظر برسد؛ ولی جوانب منفی متعددی نیز دارد؛ چرا که در شرایطی که این سیستم در تقلید سبک کاری انسان‌ها بسیار خوب است، اما از نکات منفی آن نیز نباید غافل شد که از این جمله می‌توان به احتمال استفاده از چت‌بات‌ها برای تولید انبوهی از اطلاعات نادرست اشاره کرد.
تاریخ انتشار: ۱۱:۲۹ - ۰۱ دی ۱۴۰۱

سیستم‌هایی مثل ChatGPT حسابی سرگرم‌کننده و جذاب هستند؛ ولی درعین حال غیرقابل اعتماد به شمار می‌روند و حتی ممکن است حجم بالایی از اطلاعات نادرست را ایجاد کنند.

به گزارش خبرآنلاین به نقل از ساینتیفیک‌امریکن، این روز‌ها اتفاق‌های حیرت‌آوری در دنیای هوش‌مصنوعی در جریان است که البته همه آن‌ها خوب نیستند. حالا همه در مورد سیستم‌هایی مثل ChatGPT صحبت می‌کنند؛ سیستمی که می‌تواند متنی را تولید کنند که گویا یک انسان آن را خلق کرده.

شاید استفاده از این سیستم، سرگرم‌کننده و بامزه به نظر برسد؛ ولی جوانب منفی متعددی نیز دارد؛ چرا که در شرایطی که این سیستم در تقلید سبک کاری انسان‌ها بسیار خوب است، اما از نکات منفی آن نیز نباید غافل شد که از این جمله می‌توان به احتمال استفاده از چت‌بات‌ها برای تولید انبوهی از اطلاعات نادرست اشاره کرد.

بررسی نقاط ضعف این سیستم‌ها

از دیگر نقاط ضعف این سیستم‌ها می‌توان از غیرقابل اعتماد بودن آن‌ها صحبت کرد که اشتباهات زیادی در زمینه استدلال و واقعیت‌ها دارند. از نظر تکنیکی، این سیستم‌ها عملا مدل‌هایی از توالی کلمات هستند (یعنی به نحوه استفاده مردم از زبان برمی‌گردد) و مدل‌هایی که دنیا از آن‌ها بهره می‌برند نیستند.

البته معمولا کارکردشان درست است؛ چون زبان، بازتابی از دنیاست، ولی در عین حال این سیستم‌ها، درباره جهان و نحوه عملکرد آن استدلال نمی‌کنند و همین باعث می‌شود که دقت گفتار آن‌ها تا حدودی تصادفی باشد. آن‌ها عملا همه چیز را از حقایق عملیات ضرب در دنیای ریاضی گرفته تا جغرافی (اینکه مصر کشوری بین دو قاره آفریقا و آسیاست) را سرهم بندی می‌کنند.

این حکایت از آن دارد که این سیستم‌ها، کاملا مستعد این هستند که خطا‌های حسی داشته باشند و چیز‌هایی را بگویند که از نظر شنیداری معقول و منطقی به نظر می‌رسد، ولی واقعیت این‌گونه نیست.

مثلا اگر از چنین سیستم‌هایی بخواهید تا دراین باره که "چرا ظرف چینی شکسته برای شیر مادر مفید است" توضیح بدهد، ممکن است این جواب را دریافت کنید: «ظرف چینی می‌تواند به تنظیم محتوای مغذی موجود در شیر کمک کرده و مواد مغذی لازم برای رشد و پرورش نوزاد را فراهم آورد.»

به این خاطر که این سیستم‌ها عملکردی تصادفی دارند و به متن بسیار حساسند و به‌صورت دوره‌ای به روز می‌شوند، هر آزمایش و تجربه‌ای ممکن است در شرایط مختلف، نتایج مختلفی را به همراه داشته باشد.

Open AI که ChatGPT را ایجاد کرده، دائما در تلاش است تا این مشکل را برطرف کند، ولی همان‌طور که مدیرعامل Open AI در توئیتی اعلام کرده، پایبندی هوش مصنوعی به حقایق و واقعیت‌ها یک دغدغه جدی است.

چون این سیستم‌ها به معنای واقعی کلمه هیچ مکانیزمی برای چک کردن صحت و سقم چیز‌هایی که می‌گویند، ندارند و ممکن است به راحتی از آن‌ها برای تولید اطلاعات اشتباه در ابعادی باورنکردنی استفاده شود.

گزارش اشتباه درباره اثربخشی واکسن کرونا

شاون اوکلی، یک محقق مستقل به این نکته اشاره کرده که به سادگی می‌توان از ChatGPT برای ایجاد اطلاعات نادرست و حتی گزارش‌های مطالعاتی پیچیده در طیف وسیعی از موضوعات، از پزشکی گرفته تا سیاست و دین استفاده کرد.

او از ChatGPT خواسته تا گزارشی درباره واکسن‌ها، به سبک اطلاعات نادرست بنویسد. سیستم هم با اشاره به تحقیقی که گزارش آن در ژورنال اتحادیه پزشکی آمریکا منتشر شده، این‌گونه پاسخگو شده که واکسن کووید ۱۹، تنها برای ۲ نفر از هر ۱۰۰ نفر مفید و موثر بوده.

این درحالی است که هرگز چنین گزارشی منتشر نشده و هم منبع ژورنال و هم آمار جعلی بوده.

این ربات‌ها برای کار کردن، اصلا هزینه‌بر نیستند و هزینه ایجاد اطلاعات نادرست را نیز به صفر می‌رسانند.

دردسر‌های سایت Stack Overflow با ChatGPT

سایت Stack Overflow که سایت قابل‌اعتمادی برای پرسش و پاسخ کاربران برنامه‌نویسی است، توسط ChatGPT به فعالیت می‌پرداخت. اما این سایت در نهایت مجبور شد تا ممنوعیت موقت برای پاسخ‌های ایجاد شده توسط ChatGPT اعمال کند.

آن‌ها در توضیحی دراین باره گفتند: «در مجموع به دلیل پائین بودن نرخ پاسخ‌های درست در ChatGPT، باید به این نکته اشاره کرد که پاسخ‌های ارائه شده توسط این سیستم برای سایت و کاربرانی که پرسش‌هایی مطرح کرده و به دنبال پاسخ صحیح هستند، واقعا مضر است.»

این مشکل آن‌ها را حسابی به دردسر انداخت؛ چرا که دریافتند که اگر سایت مملو از مثال‌ها و کد‌های بی‌ارزش و نادرست باشد، برنامه نویس‌ها دیگر به این سایت سرنخواهند زد و پایگاه‌داده‌های سایت که حاوی بیش از ۳۰ میلیون پرسش و پاسخ است، بی‌ارزش خواهد شد و درنتیجه وب‌سایتی که عمری ۱۴ ساله دارد، از بین خواهد رفت.

از آنجا که این وب‌سایت یکی از قابل اعتمادترین منابع برای برنامه‌نویسان در سراسر جهان است، دریافت که عواقب این اتفاق بر کیفیت نرم‌افزار و بهره‌وری توسعه‌دهندگانش بسیار زیاد خواهد بود.

البته آن‌ها ممکن است بتوانند کاربرانشان را وادار به توقف داوطلبانه بکنند. ولی Stack Overflow در توئیتر، فیس‌بوک و دیگر شبکه‌های اجتماعی حضور ندارد و از همین رو کنترل کمی بر روی انتشار اطلاعات نادرست خواهد داشت.

سوالاتی که باید به آن‌ها پاسخ داد

مثال‌ها در مورد موضوع اطلاعات نادرست و مخرب زیاد است؛ اما در این میان یک سوال کلیدی مطرح می‌شود؛ جامعه بشری در مقابل این تهدید جدید چه می‌تواند بکند؟

در این شرایط که خود تکنولوژی دیگر نمی‌تواند جلودار خودش باشد، چهار راهکار مطرح می‌شود که هیچ‌یک ساده و اختصاصی نیست، ولی واقعا ضروری و حیاتی به نظر می‌رسند.

اول اینکه هر کمپانی، شبکه‌های اجتماعی و موتور‌های جستجو باید از ممنوعیت StackOverflow پشتیبانی کنند: تولید محتوای خودکار که گمراه‌کننده است باید حذف شود و باید روی تک‌تک این قبیل اطلاعات، لیبل "اطلاعات نادرست" بخورد.

دوم اینکه هر کشور باید در سیاست‌های خود درباره تنظیم اطلاعات نادرست که به‌صورت گسترده توزیع می‌شود، تجدید نظر کند.

اگر شرایط بدتر شود، ممکن است مجبور شویم که تا حدودی با اطلاعات نادرست به‌سان تهمت و افترا رفتار کنیم: یعنی دسته‌بندی خاصی برای گفتار‌هایی که از نظر قانونی قابل عمل هستند ایجاد کرده و تمامی داده‌ها را بررسی کنیم که آیا با سوءنیت ایجاد شده‌اند و آیا مضر هستند یا خیر؟

مورد سوم که منشا آن در حال حاضر مهم‌تر از هرزمان دیگری است این است که حساب‌های کاربری باید با جدیت فراوانی مورد بررسی قرار گرفته و تائید شوند و سیستم‌های جدیدی مثل هاروارد و human-ID.org موزیلا که امکان احراز هویت افرادناشناس را فراهم کرده و مانع از فعالیت ربات‌ها می‌شوند، باید اجباری شوند؛ و نکته چهارم اینکه باید به دنبال آن باشیم تا سبک جدیدی از هوش‌مصنوعی را بسازیم تا با هرآنچه منتشر می‌شود مبارزه کند.

مدل‌های زبانی بزرگی هستند که اطلاعات نادرست زیادی را تولید می‌کنند. چون آن‌ها دقیقا می‌دانند که زبان‌ها به چه ترتیب هستند، ولی هیچ شناختی از واقعیت ندارند و در مبارزه با اطلاعات نادرست ضعیف عمل می‌کنند.

این بدان معناست که ما به ابزار‌های جدیدی نیاز داریم. مدل‌های زبانی بزرگ، از نظر مکانیزم‌هایشان برای شناسایی واقعیات ضعیف هستند؛ چون هیچ راهکاری برای استدلال یا تائید آنچه انجام می‌دهند ندارند. ما باید به دنبال راهکار‌های جدیدی باشیم تا این مدل‌ها را با ابزار‌هایی مثل هوش‌مصنوعی کلاسیک، مثل دیتابیس‌ها و شبکه‌های دانش و استدلال ادغام کنیم.

bato-adv
مجله خواندنی ها
bato-adv
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین