طبق پژوهش جدیدی از دانشگاه دوک، استفاده از هوش مصنوعی میتواند همچون شمشیری دو لبه باشد. در حالی که ابزارهای هوش مصنوعی مولد ممکن است بهرهوری را برای برخی افزایش دهند، اما ممکن است به طور پنهانی به اعتبار حرفهای فرد آسیب برسانند.
روز پنجشنبه، نشریه “وقایعنامه آکادمی ملی علوم آمریکا” (PNAS) مطالعهای را منتشر کرد که نشان میدهد کارمندانی که از ابزارهایی مانند ChatGPT، Claude و Gemini در محل کار استفاده میکنند، با قضاوتهای منفی از سوی همکاران و مدیران دربارهی شایستگی و انگیزهشان مواجه میشوند.
پژوهشگران جسیکا ای. ریف، ریچارد پی. لریک و جک بی. سول از مدرسه کسبوکار فوکوا در دانشگاه دوک نوشتند: «یافتههای ما یک معضل برای افرادی که در حال بررسی استفاده از ابزارهای هوش مصنوعی هستند، نشان میدهد: اگرچه هوش مصنوعی میتواند بهرهوری را افزایش دهد، اما استفاده از آن دارای هزینههای اجتماعی است.»
تیم دانشگاه دوک چهار آزمایش با بیش از ۴۴۰۰ شرکتکننده انجام داد تا هم ارزیابیهای پیشبینیشده و هم واقعی از کاربران ابزارهای هوش مصنوعی را بررسی کند. یافتههای آنها که در مقالهای با عنوان «شواهدی از جریمهی ارزیابی اجتماعی برای استفاده از هوش مصنوعی» ارائه شده، الگوی ثابتی از تعصب علیه کسانی که از هوش مصنوعی کمک میگیرند را نشان میدهد.
آنچه این جریمه را برای پژوهشگران بهویژه نگرانکننده کرده، تداوم آن در میان گروههای مختلف جمعیتی بود. آنها دریافتند که انگ اجتماعی علیه استفاده از هوش مصنوعی به گروههای خاصی محدود نمیشود.
در مقاله آمده است: «آزمایش طیف گستردهای از محرکها به ما اجازه داد بررسی کنیم که آیا سن، جنسیت یا شغل فرد استفادهکننده بر تأثیر دریافت کمک از هوش مصنوعی در این ارزیابیها تأثیر دارد یا نه. ما دریافتیم که هیچیک از این ویژگیهای جمعیتشناختی هدف، تأثیری بر درک تنبلی، پشتکار، شایستگی، استقلال یا اعتماد به نفس فردی که از هوش مصنوعی کمک میگیرد، ندارد. این نشان میدهد که برچسبزنی اجتماعی استفاده از هوش مصنوعی تنها به گروههای خاصی محدود نمیشود و نتیجه، یک پدیده عمومی است.»
هزینه پنهان اجتماعی در پذیرش هوش مصنوعی
در نخستین آزمایش، شرکتکنندگان تصور کردند که در محل کار از یک ابزار هوش مصنوعی یا یک ابزار ساخت داشبورد استفاده میکنند. نتایج نشان داد افرادی که در گروه هوش مصنوعی بودند، انتظار داشتند به عنوان تنبلتر، کمصلاحیتتر، کمتلاشتر و قابلجایگزینتر از کسانی که از فناوری سنتی استفاده میکردند، قضاوت شوند. همچنین تمایل کمتری برای افشای استفاده از هوش مصنوعی به همکاران و مدیران داشتند.
آزمایش دوم این ترسها را تأیید کرد. وقتی شرکتکنندگان توضیحاتی دربارهی کارکنان مختلف را ارزیابی کردند، افرادی که از کمک هوش مصنوعی بهرهمند شده بودند را همواره به عنوان تنبلتر، کمصلاحیتتر، کمتلاشتر، کماستقلالتر و دارای اعتماد به نفس پایینتر نسبت به کسانی که از منابع غیرهوش مصنوعی یا بدون کمک بهرهمند بودند، رتبهبندی کردند.
پژوهشگران دریافتند که این تعصب، تصمیمات واقعی تجاری را نیز تحت تأثیر قرار میدهد. در یک شبیهسازی استخدام، مدیرانی که خود از هوش مصنوعی استفاده نمیکردند، تمایل کمتری به استخدام متقاضیانی داشتند که مرتب از ابزارهای هوش مصنوعی استفاده میکردند. با این حال، مدیرانی که بهطور منظم از هوش مصنوعی بهره میبردند، برعکس، چنین متقاضیانی را ترجیح میدادند.
آزمایش نهایی نشان داد که برداشت از تنبلی، به طور مستقیم دلیل این جریمه ارزیابی است. پژوهشگران دریافتند که وقتی استفاده از هوش مصنوعی برای یک وظیفه خاص منطقی به نظر میرسید، این برداشت منفی به طور قابل توجهی کاهش مییافت.
به طور قابلتوجهی، تجربه شخص ارزیابیکننده با هوش مصنوعی نیز بر قضاوتهایش تأثیر زیادی داشت. افرادی که خود به طور مکرر از هوش مصنوعی استفاده میکردند، احتمال کمتری داشت که یک کاربر هوش مصنوعی را تنبل تصور کنند.
تصویری پیچیده
مطالعهی هوش مصنوعی دانشگاه دوک یادآور میشود که نگرانیهای مشابه درباره برچسبهای اجتماعی، در طول تاریخ درباره فناوریهای جدید وجود داشته است. از افلاطون که نگران بود نوشتن به خرد آسیب بزند تا بحثهای امروزی درباره ماشینحساب در آموزش، همواره نگرانیهایی درباره این بوده که ابزارهای صرفهجویانه در کار، ممکن است تواناییهای فردی را زیر سوال ببرند.
ریف و همکارانش پیشنهاد میکنند که این تأثیر اجتماعی میتواند مانعی پنهان برای پذیرش هوش مصنوعی در محل کار باشد. حتی زمانی که سازمانها در حال فشار برای پیادهسازی هوش مصنوعی هستند، ممکن است کارمندان به دلیل نگرانی از برداشت دیگران، مقاومت نشان دهند.
این معضل، ظاهراً از هماکنون آغاز شده است. در اوت سال گذشته، زمانی که خبر رسید چتجیپیتی به ۲۰۰ میلیون کاربر فعال هفتگی رسیده، پروفسور اتان مولیک از وارتون که پژوهشهای زیادی در زمینه هوش مصنوعی دارد، افرادی که بدون اطلاع مدیرشان از هوش مصنوعی استفاده میکنند را “سایبورگهای مخفی” نامید. چون بسیاری از شرکتها استفاده از خروجیهای هوش مصنوعی را ممنوع کردهاند، بسیاری از کارکنان به طور پنهانی به استفاده از هوش مصنوعی روی آوردهاند.
و اگر این تصویر هنوز به اندازه کافی پیچیده نیست، مطالعهای دیگر بُعد تازهای به مسائل مربوط به هوش مصنوعی در محیط کار افزوده است. پژوهشی از اقتصاددانان دانشگاه شیکاگو و کپنهاگ نشان داد که اگرچه ۶۴ تا ۹۰ درصد کارکنان از صرفهجویی زمانی با ابزارهای هوش مصنوعی گزارش دادهاند، اما این مزایا گاهی با وظایف جدیدی که فناوری ایجاد کرده، خنثی شده است. این مطالعه نشان داد ابزارهای هوش مصنوعی در واقع برای ۸.۴ درصد از کارکنان، کار اضافی ایجاد کردهاند، از جمله افرادی که موظف به بررسی کیفیت خروجیهای هوش مصنوعی یا تشخیص استفاده از آن در تکالیف دانشآموزان بودند.
بنابراین، اگرچه استفاده از هوش مصنوعی ممکن است در انجام برخی وظایف زمان صرفهجویی کند، اما ممکن است کارمندان برای خود یا دیگران کار اضافی ایجاد کنند. در واقع، گزارش “آینده مشاغل ۲۰۲۵” از مجمع جهانی اقتصاد پیشنهاد میکند که هوش مصنوعی ممکن است تا سال ۲۰۳۰، ۱۷۰ میلیون شغل جدید ایجاد کرده و ۹۲ میلیون شغل را حذف کند، که در نتیجه، سود خالص ۷۸ میلیون شغل خواهد بود. پس تصویر پیچیده است، اما به نظر میرسد تأثیر هوش مصنوعی بر کار، با سرعتی ثابت در حال پیشروی است.
No comment