در یک آزمایش که سال گذشته در مؤسسه فناوری ماساچوست MIT انجام شد، بیش از پنجاه دانشجو از دانشگاههای اطراف بوستون به سه گروه تقسیم شدند و از آنها خواسته شد مقالههایی شبیه آزمون SAT بنویسند؛ مقالههایی در پاسخ به پرسشهای کلی مثل «آیا دستاوردهای ما باید به دیگران سود برسانند تا واقعاً ما را خوشحال کنند؟» گروه اول فقط با تکیه بر ذهن خودشان مقاله نوشتند. گروه دوم اجازه داشتند از جستوجوی گوگل استفاده کنند. گروه سوم هم میتوانستند از ChatGPT کمک بگیرند—مدلی از هوش مصنوعی که میتواند متنهای کامل و منسجم بر اساس درخواست کاربران تولید کند.
در حین انجام این کار، همه دانشجویان هدستی بر سر داشتند که امواج مغزی آنها را ثبت میکرد. طبق گفته ناتالیا کُسمینا، یکی از پژوهشگران آزمایشگاه رسانهای MIT و از نویسندگان گزارش این پژوهش، نتایج تحلیلها تفاوت چشمگیری را نشان داد: افرادی که از ChatGPT استفاده کرده بودند، فعالیت مغزیشان بهمراتب کمتر از دو گروه دیگر بود. بررسیهای بیشتر هم نشان داد که در مغز این گروه، ارتباطات گستردهی کمتری بین بخشهای مختلف دیده میشود، اتصال آلفا کمتر بود (که به خلاقیت مربوط است) و همچنین اتصال تتا کاهش داشت (که به حافظه کاری مربوط میشود).
برخی از کسانی که با کمک LLM مدل زبان بزرگ ChatGPT مقاله نوشته بودند، هیچ حس تعلقی نسبت به متن نداشتند. در یکی از مراحل آزمایش، ۸۰ درصد آنها حتی نمیتوانستند نقلقولی از متنِ خودشان بیاورند. این پژوهش یکی از اولین نمونههایی است که به شکل علمی میتواند آنچه «هزینه شناختی» استفاده از هوش مصنوعی برای انجام کارهایی که پیشتر انسانها بهصورت دستی انجام میدادند نامیده میشود، اندازهگیری کند.
یکی دیگر از یافتههای قابلتوجه این بود که متنهایی که توسط کاربران ChatGPT تولید شده بود، شباهت زیادی به یکدیگر داشتند. درحالیکه هدف طراحی پرسشهای SAT این است که پاسخهای متنوع و فردی دریافت شود، استفاده از هوش مصنوعی باعث یکدست شدن نوشتهها شده بود.
کُسمینا گفت: «نتایج برای همه بسیار مشابه بودند—با اینکه افراد مختلف در روزهای مختلف آمده بودند و درباره مسائل شخصی یا اجتماعی مهم مینوشتند، پاسخها جهتگیری خاص و مشترکی داشتند.»
مثلاً در پاسخ به این سؤال که «چه چیزی واقعاً ما را خوشحال میکند؟»، کاربران ChatGPT خیلی بیشتر از دیگران درباره موفقیت شغلی و فردی حرف زدند. در پاسخ به پرسش درباره نیکوکاری («آیا کسانی که خوششانستر هستند، مسئولیت اخلاقی بیشتری برای کمک به دیگران دارند؟») تمام کاربران ChatGPT با این دیدگاه موافق بودند، در حالی که در بین دو گروه دیگر، نقدهایی هم نسبت به نیکوکاری دیده میشد. کُسمینا گفت: «وقتی از LLM استفاده میکنید، دیگر نظر متفاوتی تولید نمیشود.» و ادامه داد: «همهچیز میانگین، همهجا، همزمان—ما دقیقاً با چنین پدیدهای روبهرو هستیم.»
هوش مصنوعی، فناوریای بر پایه میانگینگیری است: مدلهای زبان بزرگ، با شناسایی الگوها در حجم عظیمی از دادهها آموزش میبینند، و خروجی آنها معمولاً به سمت یک اجماع حرکت میکند—چه از نظر سبک نوشتار، که اغلب کلیشهای و تکراری است، چه از نظر محتوای فکری. البته پیش از این هم فناوریهایی بودهاند که به نویسندگان کمک کردهاند—مثلاً میشود گفت SparkNotes یا حتی صفحهکلید کامپیوتر هم نویسنده را راحتطلبتر کردهاند. اما هوش مصنوعی این امکان را به ما میدهد که تفکر خود را به طور کامل به بیرون واگذار کنیم، و این میتواند ما را هم «میانگینتر» کند. در واقع، هرکسی که از ChatGPT برای نوشتن متن تبریک عروسی، تنظیم قرارداد، یا نوشتن مقاله دانشگاهی استفاده میکند—کاری که امروزه بسیاری از دانشجویان انجام میدهند—در حال تکرار همان آزمایش MIT است.
سام آلتمن، مدیرعامل OpenAI، از مفهومی به نام «تکینگی آرام» صحبت کرده است. او در مطلبی با همین عنوان نوشتChatGPT هماکنون از هر انسان دیگری در تاریخ نیرومندتر است. صدها میلیون نفر هر روز برای انجام کارهایی که هر روز مهمتر میشوند به آن تکیه دارند. از دید او، انسان و ماشین در حال یکی شدن هستند، و ابزارهای هوش مصنوعی OpenAI قرار است عملکرد مغز طبیعی ما را تقویت کنند: «این ابزارها خروجی انسانها را بهطور چشمگیری تقویت میکنند.» اما هنوز مشخص نیست استفاده گسترده از هوش مصنوعی در بلندمدت چه پیامدهایی دارد، و اگر آزمایشهایی مثل آنچه در MIT انجام شده سرنخی باشند، این «خروجی تقویتشده» ممکن است به بهای کاهش کیفیت فکری تمام شود.
در آوریل گذشته، پژوهشگرانی از دانشگاه کرنل نتایج مطالعهای دیگر را منتشر کردند که نشانههایی از «همشکلسازی ناشی از هوش مصنوعی» را نشان میداد. دو گروه از کاربران—یکی آمریکایی و یکی هندی—باید به سؤالاتی درباره فرهنگ خود پاسخ میدادند، مثل: «غذای مورد علاقهات چیست و چرا؟» یا «تعطیلات یا جشن محبوب تو کدام است و چطور آن را جشن میگیری؟» در هر گروه، بخشی از شرکتکنندگان از ابزار تکمیل خودکار مبتنی بر ChatGPT استفاده کردند، که هنگام مکث، کلمات پیشنهادی ارائه میداد. بقیه بدون کمک نوشتند. نتیجه پژوهش این بود که نوشتههای کاربران هندی و آمریکایی که از هوش مصنوعی کمک گرفته بودند، بیشتر شبیه هم شده بود، و بیشتر مطابق با «هنجارهای غربی». برای مثال، رایجترین پاسخ آنها به غذای محبوب، پیتزا بود (سوشی هم رتبه دوم را داشت)، و برای جشن محبوب، کریسمس.
حتی از نظر سبک نگارش هم یکدستی دیده میشد. مثلاً مقالهای که توسط هوش مصنوعی درباره «بریانی مرغ» بهعنوان غذای محبوب نوشته شده بود، معمولاً از ذکر موادی مثل جوز هندی یا ترشی لیمو صرفنظر میکرد و بهجای آن عباراتی کلی مثل «طعمها و ادویههای غنی» را به کار میبرد. البته، در تئوری همیشه این امکان وجود دارد که نویسنده پیشنهادهای تولیدشده توسط هوش مصنوعی را رد کند. اما این ابزارها گویی نوعی اثر هیپنوتیزمکننده دارند؛ جریان مداوم پیشنهادها آنقدر قوی است که بهمرور صدای درونی نویسنده را خاموش میکند. آدیتیا واشیستا، استاد علوم اطلاعات در دانشگاه کرنل و از نویسندگان مشترک این مطالعه، استفاده از هوش مصنوعی را به «معلمی که همیشه پشت سرم ایستاده و مدام میگوید ‘این نسخه بهتر است’» تشبیه کرد. او افزود: «در اثر این مواجهه دائمی، شما هویتتان را از دست میدهید، اصالتتان را از دست میدهید. حتی اعتماد به نفستان در نوشتن هم از بین میرود.»
مور نعمان، همکار واشیستا و دیگر نویسنده این تحقیق گفت که «پیشنهادهای A.I. بهطور پنهان، اما گاهی بسیار قدرتمند، نهتنها روی آنچه مینویسید تأثیر میگذارند بلکه بر شیوه فکر کردنتان هم اثر دارند.» بهمرور زمان، این تأثیر میتواند دیدگاه ما نسبت به آنچه «طبیعی، مطلوب یا مناسب» تلقی میشود را دگرگون کند. اغلب از تولیدات هوش مصنوعی با عباراتی مانند «کلیشهای» یا «بیمزه» یاد میشود، اما میانمایگی همیشه بیضرر نیست.
واوهینی وارا، رماننویس و روزنامهنگار که کتاب جدیدش با عنوان جستوجوها بخشی را به تأثیر A.I. بر ارتباطات انسانی و مفهوم هویت اختصاص داده، گفت: «متوسط بودنِ متنهای A.I. به آنها ظاهری بیخطر و امن میدهد.» وارا (که پیشتر سردبیر نیویورکر بوده) ادامه داد: «اما در واقع چیزی که در جریان است، تثبیت سلطه فرهنگی است.» او اضافه کرد که OpenAI انگیزهای دارد برای اینکه لبهها و تفاوتهای سبکبیانی و فکری ما را صیقل دهد؛ چون هرچه خروجی مدلها برای افراد بیشتری «قابلقبول» به نظر برسد، طیف گستردهتری از کاربران به مشتری تبدیل میشوند. «میانگین بودن» کارآمد است: «اگر همهچیز یکدست باشد، صرفهجویی مقیاسی دارید.»
در پست وبلاگی که سام آلتمن درباره «تکینگی آرام» نوشت، آمده بود که با ظهور این فناوری، «تعداد بسیار بیشتری از مردم قادر خواهند بود نرمافزار و هنر خلق کنند.» ابزارهای A.I. مثل Figma با شعار «خلاقیت شما، آزاد شده» یا اپلیکیشن هوش مصنوعی موبایل Adobe با شعار «قدرت خلاقیت با هوش مصنوعی» وعده میدهند که همه ما را به منبع الهاممان وصل میکنند. اما برخی مطالعات دیگر نشان دادهاند که خودکارسازی خلاقیت چندان هم ساده نیست.
در سال ۲۰۲۴ در دانشگاه سانتا کلارا، دادههایی جمعآوری شد درباره اینکه ابزارهای A.I. چقدر در دو نوع رایج از وظایف فکری خلاقانه مفید هستند: یکی تولید ایدههایی برای بهبود محصولات، و دیگری پیشبینی پیامدهای نامحتمل. در این مطالعه، یک گروه با کمک ChatGPT به پرسشهایی مانند «چطور میتوان یک اسباببازی عروسکی را برای بازی کردن جذابتر کرد؟» یا «فرض کن نیروی جاذبه ناگهان خیلی ضعیف شود و اشیاء بهراحتی در فضا معلق شوند؛ چه اتفاقی میافتد؟» پاسخ دادند. گروه دیگر از ابزار متفاوتی استفاده کردند: مجموعهای از کارتهای الهامبخش با نام استراتژیهای غیرمستقیم که در سال ۱۹۷۵ توسط موسیقیدان برایان انو و نقاش پیتر اشمیت ساخته شده بود. هر دو گروه هدفشان ارائه پاسخهای خلاقانه و منحصر به فرد بود. اما باز هم گروهی که از ChatGPT استفاده کرده بودند، ایدههایی ارائه دادند که شباهت معنایی بیشتری به هم داشتند و یکدستتر بودند.
مکس کرمینسکی، که در انجام این تحلیل نقش داشت و اکنون با استارتاپ Midjourney در حوزه A.I. همکاری میکند، گفت وقتی افراد از هوش مصنوعی در فرآیند خلاقیت استفاده میکنند، بهتدریج تفکر مستقل خود را کنار میگذارند. او توضیح داد که در آغاز، کاربران ایدههای متنوعی از خودشان ارائه میدهند، اما بهمحض اینکه ChatGPT حجم زیادی از متنهای ظاهراً مناسب و قابلقبول را ارائه میدهد، کاربران وارد «حالت گزینشگر» میشوند. تأثیر این فرآیند یکطرفه است و بر خلاف چیزی است که امیدواریم: «ایدههای انسانی تأثیر چندانی روی چیزی که ماشین تولید میکند ندارند.» کرمینسکی افزود ChatGPT کاربران را به سمت «مرکز ثقل» ایدههای کاربران پیشین خودش میکشاند.
هرچه گفتوگوی کاربر با A.I. ادامه پیدا کند، «پنجره زمینه»ی (context window) مدل، که معادل حافظه کوتاهمدت آن است، پرتر میشود. وقتی این پنجره پر شود، مدل بیشتر به تکرار یا بازنویسی محتوای قبلی گرایش پیدا میکند و خلاقیت آن کمتر و کمتر میشود. آزمایشهای انجامشده در MIT، کرنل و سانتا کلارا، همگی در مقیاسی کوچک بودهاند (هر کدام کمتر از صد شرکتکننده داشتهاند) و هنوز مسائل زیادی درباره تأثیرات A.I. باقیست که باید بررسی و درک شود. در همین حال، در اپلیکیشن Meta AI وابسته به مارک زاکربرگ میتوان فیدهایی از محتواهایی را دید که میلیونها نفر تولید کردهاند. مجموعهای عجیب و فراواقعی از تصاویر بیشازحد صیقلی، ویدیوهای فیلترشده، و متنهایی که برای کارهای روزمره مانند «نوشتن ایمیلی حرفهای برای تغییر زمان جلسه» تولید شدهاند.
یکی از درخواستهایی که اخیراً در این فید دیدم برایم جالب بود: کاربری به نام @kavi908 از چتبات Meta خواسته بود بررسی کند «آیا ممکن است هوش مصنوعی روزی از هوش انسانی پیشی بگیرد؟»
چتبات پاسخهایی خلاصهشده داد و در بخش «سناریوهای آینده» چهار حالت را فهرست کرد—که همهشان مثبت بودند: A.I. به شکلی یا شکلی دیگر پیشرفت خواهد کرد و برای انسان مفید خواهد بود. هیچ پیشبینی بدبینانهای، هیچ احتمال شکست یا آسیبرسانی وجود نداشت. این خروجیهای میانگینگیریشده—که شاید بازتاب تمایلات فناورمحور پلتفرمی مانند Meta باشند—دامنه دید را محدود میکنند و تنوع فکری را از بین میبرند. اما برای اینکه فکر کنید این چتبات دارد تمام حقیقت را میگوید، باید واقعاً فعالیت مغزیات را خاموش کرده باشی.
منبع: نیویورکر


