bato-adv

در استفاده از هوش مصنوعی اخلاق را رعایت کنید

در استفاده از هوش مصنوعی اخلاق را رعایت کنید
سال‏‏‌ها قبل گمانه‏‏‌زنی درباره وضعیت کسب و کار‌ها در جهان دیجیتال شروع شده بود. همه می‏‏‌دانستند پیشرفت‏‏‌های فناوری به سمتی می‏‏‌رود که شاهد تحولاتی عظیم در کسب و کار‌ها و مشاغل خواهیم بود. انتظار می‏‏‌رفت تغییر زیرساخت‏‏‌ها، معرفی ابزار‌های جدید، ظهور هوش مصنوعی و افزایش کارکرد روبات‏‏‌ها، مشاغل بسیاری را تغییر دهد و عده‏‏‌ای را با تعدیل اجباری به سمت مشاغل جدید هدایت ‏‏‌کند. مقاله پیش‏‏ رو از یافته و مشکلی غیرمنتظره پرده برمی‏‏ دارد: نه‏‏‌تن‌ها برخی شغل‏‏‌ها تغییر می‏‏‌کنند، بلکه در صورت اشتباه مدیران و کارکنانشان، پیدا کردن شغل جدید هم دشوارتر از حد تصور می‌شود.
تاریخ انتشار: ۰۸:۲۳ - ۱۶ اسفند ۱۴۰۲

در عصر دیجیتال کنونی، نوآوری‌هایی مانند هوش مصنوعی به شدت فضای کسب و کار را دگرگون کرده است. در هر گروه و فضایی می‌توانید افراد فراوانی را مشاهده کنید که در حال صحبت درباره قابلیت‌های چنین فناوری‌هایی هستند یا هم اکنون نیز بخش زیادی از وظایف کاری خود را با آن‌ها انجام می‌دهند.

به گزارش دنیای اقتصاد، هوش مصنوعی برای کسب و کار‌ها نیز کاربرد‌های فراوانی دارد. به عنوان مثال، به وسیله روبات‌های گفتگو با مشتریان، می‌توان به طور همزمان به نیاز‌های تعداد بسیار بیشتری از مشتریان رسیدگی کرد، هزینه پشتیبانی را کاهش داد و خدمات را همسان‌تر کرد. با این حال، در میان تمام این مزایا، تنگنایی اخلاقی نهفته است.

مشتریان شیفته تعاملات انسانی صادقانه هستند و زمانی که متوجه شوند به برخی پیام‌ها و تماس‌های آن‌ها روبات‌ها به جای انسان پاسخ می‌دهند، به سرعت دلسرد خواهند شد. ایجاد توازن بین میل به اصالت و وسوسه‌های فناوری و صرفه‌های اقتصادی آن، دشوار است و شاید برخی کسب و کار‌ها را به سمت فریب مشتریانشان سوق دهد.

شرایط از آنجا پیچیده‌تر شده است که اکنون بسیاری از ابزار‌های هوش مصنوعی شباهت بیشتری به انسان پیدا کرده اند. این شرایط، وسوسه استخدام روبات‌ها و هوش مصنوعی به جای انسان را ایجاد کرده است. البته به راحتی نمی‌توان چنین تصمیمی اتخاذ کرد. به هر حال، مشتریان تعاملات انسانی را ترجیح می‌دهند و اگر شرکتی بخواهد در حوزه‌هایی مانند خدمات پشتیبانی مشتریان از روبات‌های گفتگو استفاده کند، این کار را باید به شکلی انجام دهد که مشتریان متوجه آن نشوند.

مشکل استفاده از روبات‌های گفتگو بدون افشای آن برای مشتریان چیست؟ زمانی که مشتریان از این اقدام فریبنده مطلع شوند، چه اتفاقی برای اعتبار شرکت می‌افتد؟ مهم‌تر آنکه چه اتفاقی برای کارکنان آن شرکت می‌افتد؟ تاکنون چند شرکت بزرگ فناوری با پیامد‌های این گونه استفاده غیراخلاقی از فناوری‌های نوظهور مواجه شده اند.

برای درک بهتر، به مثال شرکت فناوری‌های پزشکی ترانوس (Theranos) توجه کنید. این شرکت رسوایی بزرگی بابت کلاهبرداری و سوءرفتار تجربه کرد. در حالی که شرکت و مدیرانش درگیر اتهامات و پرونده‌های قضایی مختلف شدند، کارکنان آن‌ها نیز آسیب دیدند.

بسیاری از کارکنان شرکت اعلام کردند که به سختی شرکت‌های دیگر حاضر به استخدام آن‌ها می‌شوند و کارفرمایان بالقوه به آن‌ها اعتماد نمی‌کنند. از آنجا که شرکت‌ها در مقابل کارکنان خود مسوولیت دارند، پیش از تصمیم‌گیری برای هرگونه استفاده غیرشفاف از فناوری ها، باید پیامد‌های احتمالی آن بر اعتبار و آینده کارکنانشان را هم در نظر بگیرند. ما برای درک پیامد‌های رفتار غیرشفاف شرکت‌ها بر آینده شغلی کارکنانشان، چند پژوهش و مطالعه میدانی داشته ایم.

اثر دومینویی بر آینده شغلی

نخستین یافته ما، جای تعجب ندارد. مشتریان، شرکت‌هایی را که بدون شفافیت و اطلاع آن‌ها از روبات و هوش مصنوعی استفاده می‌کنند، چندان شرکت‌های اخلاق مداری نمی‌دانند. واضح است که اگر به بی اخلاقی در استفاده از فناوری‌های جدید شهرت یابید، وجهه اجتماعی تان به شدت آسیب می‌بیند. مساله این است که تصور افکار عمومی از چنین شرکتی چه می‌شود؟ تجربه اوبر می‌تواند ما را برای پاسخ دادن به این پرسش راهنمایی کند. رسوایی این شرکت تاکسی اینترنتی آمریکایی در سرکوب اتهامات آزار جنسی، به شدت وجهه عمومی این شرکت را مخدوش کرد.

واکنش‌ها چنان نسبت به همه کارکنان اوبر منفی شد که حتی کارکنان بی گناه هم از نگاه سرد جامعه مصون نماندند. در نتیجه، بسیاری از آن‌ها تصمیم به استعفا گرفتند.

ما برای اطمینان یافتن از این فرضیه خود، پژوهش‌های بسیاری انجام دادیم. در پژوهش‌های خود، شبیه سازی‌هایی انجام دادیم و از کارکنان چند شرکت فرضی خواستیم تا به راه اندازی مخفیانه روبات‌های گفتگو کمک کنند.

هضم این درخواست برای کارکنان دشوار بود و مانند آن بود که اقدامی غیراخلاقی از آن‌ها خواسته شده است. در نتیجه این طرز فکر، بسیاری از آن‌ها خواهان استعفا از شغل خود شدند.

بنابراین، شرکت‌هایی که وانمود به انسان بودن روبات‌های گفت وگویشان می‌کنند، در چشم مشتریان و همچنین کارکنانشان، شرکت‌هایی غیراخلاقی به نظر می‌رسند. مشتریان هیچ وفاداری به آن‌ها نخواهند داشت و کارکنان نیز میل بیشتری به استعفا نشان خواهند داد. اما این کارکنان کجا خواهند رفت؟ آیا آن‌ها به خاطر حضور در بازار کار، آلوده شده اند؟ بله. به دلیل سرعت بالای انتشار اطلاعات در عصر جاری، هر رفتاری از شرکت‌ها به سرعت برملا می‌شود و به اعتبار کارکنانشان هم آسیب می‌زند.

ما در تلاش برای درک بهتر این پدیده، دو پژوهش دیگر هم انجام دادیم. هدف ما بررسی این موضوع بود که کارکنان استعفا داده از چنین شرکت‌هایی، در چشم کارفرمای بعدی چگونه به نظر می‌رسند.

نتایج پژوهش‌ها نشان داد که متقاضیان شغلی که سابقه کار در شرکت‌هایی با روبات گفت وگوی مخفیانه دارند، چندان قادر به جلب اعتماد تصمیم‌گیرندگان فرآیند‌های استخدامی نیستند.

در نتیجه به ندرت شغل جدیدی در شرکت‌های دیگر به آن‌ها پیشنهاد می‌شود و حتی در صورت پیشنهاد شغل، حقوق کمتری به آن‌ها تعلق می‌گیرد.

از این‌رو، استفاده فریبکارانه از روبات‌های گفتگو، پیامد‌های بسیار گسترده‌ای به جای می‌گذارد. چنین اقدامی نه تنها به شرکت آسیب می‌زند، بلکه بر سرنوشت تمام افراد شاغل در آن شرکت نیز اثر منفی می‌گذارد.

مسوولیت متخصصان فناوری

وضعیت روشن است. متخصصان فناوری باید طلایه داران استفاده اخلاقی از هوش مصنوعی باشند. ما نمی‌توانیم اثرات اجتماعی گسترده اختراعات خود را نادیده بگیریم. اگر با شفافیت کار کنید و به اصول اخلاقی پایبند باشید، نه‌تن‌ها به اعتبار و وجهه عمومی شرکت‌هایتان کمک خواهید کرد، بلکه جایگاه حرفه‌ای خود را هم تحکیم خواهید کرد. یافته‌های پژوهش‌های ما، دو درس کاربردی مهم در خود دارند:

۱- نقش رهبران سازمانی

رهبران سازمانی باید متوجه آسیب‌های ماندگار رفتار‌های فریبکارانه در قبال مشتریان باشند. استفاده اخلاقی از فناوری‌ها می‌تواند شهرت شرکت، روحیه کارکنان و اعتماد مشتریان را تقویت کند.

۲- نقش کارکنان

کارکنان نیز باید انفعال و بی تفاوتی را کنار بگذارند. شیوه فعالیت شرکت نه تنها مسوولیتی اخلاقی برای آن‌ها دارد، بلکه بر سرنوشت و آینده شغلی شان اثر می‌گذارد. به همین دلیل توصیه می‌شود که کارکنان، فعالانه از نگرانی‌های خود درباره استفاده غیراخلاقی فناوری‌ها سخن بگویند.

در صورتی هم که شرکت آن‌ها رفتارش را اصلاح نکرد، پیش از برملا شدن داستان، استعفا دهند. نگرانی‌ها را به شیوه‌های مختلفی می‌توان بیان کرد: در نامه‌های بی نام، در جلسات خصوصی با مدیر، به طور علنی در جلسات تیم یا گردهمایی‌های سازمانی. هرکدام از این روش‌ها مزیت‌های خاص خود را دارند و باید مدنظر قرار گیرند (هرچند شاید بهتر باشد ابتدا روش‌های ساده‌تر و سریع‌تر ابراز نگرانی در نظر گرفته شوند.)

در جمع بندی مباحث این مقاله، باید گفت که به موازات افزایش کاربرد هوش مصنوعی در کسب و کارها، استفاده اخلاقی از آن‌ها اهمیت بیشتری می‌یابد. بحث ما بر سر سودآوری شرکت نیست، بلکه پای آینده شغلی و اعتبار تمام افراد، به عنوان تشکیل دهندگان سازمان در میان است. اولویت دادن به اخلاقیات در استفاده از هوش مصنوعی، تنها یک توصیه کسب و کاری نیست، بلکه یک الزام شغلی است.

bato-adv
مجله خواندنی ها
bato-adv
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین