bato-adv

افشای اطلاعات کار دست ChatGPT داد!

افشای اطلاعات کار دست ChatGPT داد!
بعد از اینکه شرکت Samsung Semiconductor اجازه داد مهندسان این شرکت از ChatGPT برای کمک استفاده کنند، آن‌ها شروع به استفاده از آن برای رفع سریع خطا‌ها در کد منبع خود کردند و اطلاعات محرمانه مانند یادداشت‌های جلسات داخلی و داده‌های مربوط به عملکرد و بازده این شرکت به بیرون درز کرد.
تاریخ انتشار: ۱۵:۴۳ - ۱۸ فروردين ۱۴۰۲

پس از آنکه ایتالیا استفاده از ChatGPT را در داخل کشور ممنوع کرد، حالا نوبت به آلمان رسیده تا درباره این مدل زبانی هوش مصنوعی تصمیم بگیرد.

به گزارش همشهری آنلاین؛ از آنجا که بعضی از کارشناسان حوزه‌های مختلف نسبت به این پدیده شگفت‌انگیز ابراز نگرانی کرده‌اند، انتظار می‌رود که در آینده به تعداد کشور‌هایی که استفاده از این روبات چت را ممنوع کنند، اضافه شود. این نگرانی‌ها اگرچه از سال‌ها پیش نسبت به انواع مدل‌ها و محصولات هوش مصنوعی وجود داشته، اما به‌نظر می‌رسد که پس از انتشار یک نامه از سوی غول‌های حوزه فناوری سیاستمداران را هم به تأمل واداشته است. روبات ChatGPT با استفاده از دیتای موجود در اینترنت می‌تواند به پرسش‌های کاربران پاسخ دهد. در عین حال، در زمان چت می‌تواند به دیتا‌های متفاوتی که از سوی کاربران، خواسته یا ناخواسته در اختیارش قرار می‌گیرد، دست یابد. شاید بزرگ‌ترین نگرانی در این میان، مسائل مربوط به حریم خصوصی و افشای اطلاعاتی باشد که امکان خطرآفرین بودن آن هم دور از ذهن نیست.

درز اطلاعات سامسونگ

بعد از اینکه شرکت Samsung Semiconductor اجازه داد مهندسان این شرکت از ChatGPT برای کمک استفاده کنند، آن‌ها شروع به استفاده از آن برای رفع سریع خطا‌ها در کد منبع خود کردند و اطلاعات محرمانه مانند یادداشت‌های جلسات داخلی و داده‌های مربوط به عملکرد و بازده این شرکت به بیرون درز کرد.

تاکنون این شرکت ۳مورد استفاده از ChatGPT را ثبت کرده که منجر به نشت اطلاعات شده است. درحالی‌که ممکن است ۳مورد زیاد به‌نظر نرسد، اما همه آن‌ها در طول ۲۰روز اتفاق افتاده که نشان‌دهنده وضعیت بسیار نگران‌کننده‌ای است. در یک مورد، یکی از کارمندان سامسونگ کد منبع یک برنامه اختصاصی را برای رفع خطا‌ها به ChatGPT ارسال کرد که اساسا کد یک برنامه فوق محرمانه را برای یک هوش مصنوعی که توسط یک شرکت خارجی اجرا می‌شد، فاش کرد.

مورد دوم شاید حتی نگران‌کننده‌تر بود، چراکه کارمند دیگری الگو‌های آزمایشی را برای شناسایی تراشه‌های معیوب وارد و درخواست بهینه‌سازی کرد. توالی‌های آزمایشی که برای شناسایی عیوب طراحی شده‌اند کاملاً محرمانه هستند. همچنین کارمند دیگری از برنامه Naver Clova برای تبدیل صدای ضبط شده یک جلسه به متن استفاده کرد و سپس آن را برای تهیه یک «ارائه» به ChatGPT ارسال کرد.

افشای مکالمات و اطلاعات پرداخت

ایتالیا نخستین کشور غربی بود که ChatGPT را به‌عنوان یک روبات محبوب برای عموم مردم، مسدود کرد. پس از اینکه ChatGPT با اتهام نقض اطلاعات مربوط به مکالمات کاربران و اطلاعات پرداخت مواجه شد، دیدبان حفاظت از داده در ایتالیا اعلام کرد که تحقیقاتی را درباره شرکت OpenAI که سازنده این مدل زبانی هوش مصنوعی است، به‌دلیل نگرانی‌های مربوط به حفظ حریم خصوصی داده‌ها آغاز کرده است. حالا خبر رسیده که آلمان هم احتمالا به ایتالیا خواهد پیوست و ChatGPT را در این کشور مسدود خواهد کرد.

رئیس کمیته حفاظت از داده‌های آلمان ادعا کرد که این کشور ممکن است با ممنوع کردن ChatGPT به‌دلیل نگرانی‌های امنیتی و اطلاعات شخصی از روش ایتالیا استفاده کند. اولریش کلبر، اعلام کرد که کشورش می‌تواند از ممنوعیت اخیر ChatGPT در ایتالیا پیروی و از همان روش استفاده کند. پس از آنکه آژانس حفاظت از داده‌های ایتالیا تحقیقاتی را در مورد نقض مشکوک قوانین حریم خصوصی از سوی ChatGPT آغاز کرد، کلبر عنوان کرد که «در اصل، چنین اقدامی در آلمان هم امکان‌پذیر است». با این حال، از آنجا که آلمان دارای یک نظام سیاسی فدرال است، او صلاحیت تصمیم‌گیری در این مورد را در اختیار ایالت‌های فدرال دانسته است.

نگرانی‌ها بجاست؟

بعضی از مسئولان معتقدند که در استفاده از فناوری ChatGPT باید جانب احتیاط را درنظر گرفت.

به‌عنوان مثال، اورسولا پاچل، معاون سازمان مصرف‌کنندگان اروپا می‌گوید: «مصرف‌کنندگان برای این فناوری آماده نیستند. آن‌ها متوجه نمی‌شوند که این چت‌بات چقدر می‌تواند فریبنده باشد.» اخیراً جو بایدن، رئیس‌جمهور آمریکا هم اعلام کرده که هوش مصنوعی می‌تواند برای کمک به حل چالش‌های بزرگ مثل بیماری‌ها و تغییرات اقلیمی مفید باشد، اما در عین حال باید پاسخی برای خطرات احتمالی علیه جامعه، اقتصاد و امنیت ملی هم داشته باشد. این در حالی است که ظهور هرگونه فناوری جدیدی با نگرانی‌هایی توأم بوده است.

انسان پس از ظهور هر تکنولوژی تلاش کرده با وضع قوانین و آگاهی بخشی به مردم از مخاطرات فناوری بکاهد. به همین‌خاطر است که بیل گیتس، بنیانگذار مایکروسافت، درباره نامه سرگشاده‌ای که هفته گذشته منتشر و بحث‌برانگیز شد، اعلام کرده که بهتر است همه تمرکز خود را بر چگونگی استفاده از پیشرفت‌های هوش مصنوعی بگذاریم. او می‌گوید: «درک نمی‌کند که توقف توسعه این فناوری چطور می‌تواند به جهان کمک کند. فکر نمی‌کنم درخواست از یک گروه برای توقف توسعه چالشی را حل کند. واضح است که مزیت‌های بزرگی در استفاده از این ابزار‌ها وجود دارد. کاری که باید بکنیم شناسایی بخش‌هایی است که نیاز به رسیدگی بیشتر دارند.»

اپیدمی ممنوعیت؟

خبر‌ها حاکی از تماس سازمان‌های حفاظت از حریم خصوصی داده‌های سایر کشور‌های اتحادیه اروپا مانند فرانسه و ایرلند با رگولاتور‌های ایتالیایی به‌منظور گفتگو درباره یافته‌های آنهاست. سخنگوی کمیته حفاظت از داده‌های ایرلند (DPC) در گفتگو با رویترز می‌گوید: ما در حال مذاکره با رگولاتور‌های ایتالیایی هستیم تا علت و اساس اقدام آن‌ها را بفهمیم.

آنطور که این مقام ایرلندی اعلام کرده، درباره این موضوع با همه مسئولان حفاظت از داده اتحادیه اروپا هماهنگ خواهیم بود.

درواقع، پس از تصمیم ایتالیا برای محدود کردن دسترسی به این روبات چت، سازمان مصرف‌کنندگان اروپا (BEUC) از همه مسئولان این اتحادیه خواسته که همه چت روبات‌های اصلی هوش مصنوعی را بررسی کنند.
این در حالی است که ChatGPT اکنون در تعدادی از کشور‌ها ازجمله چین، ایران، کره‌شمالی و روسیه غیرقابل دسترسی است.

برچسب ها: چت جی پی تی
bato-adv
مجله خواندنی ها
bato-adv
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین