
صنعت هوش مصنوعی، که با وعدههایی بزرگ و انقلابی به پیش میرود، ممکن است تصویری فریبنده از قابلیتهای خود ارائه دهد. گزارشی تازه نشان میدهد که شرکتهای فناوری در سیلیکونولی با اغراق در تواناییهای هوش مصنوعی، واقعیت را تحریف میکنند، درحالیکه این ابزارها نه هوش انسانی دارند و نه بیخطر هستند. این موضوع، نگرانیهای جدی را درباره پیامدهای روانی و اجتماعی این تکنولوژی نوظهور ایجاد کرده است.
از پیشبینی قرن نوزدهمی تا سلطه مدلهای زبانی
در سال ۱۸۶۳، ساموئل باتلر، نویسنده بریتانیایی، هشدار داد: “ماشینها هر روز بر ما مسلطتر میشوند؛ انسانها بیش از پیش برده آنها میشوند.” بیش از یک قرن بعد، این پیشبینی به نظر میرسد با ظهور مدلهای زبانی هوش مصنوعی نظیر ChatGPT، در حال تحقق است. اما اینبار نه با ماشینهای بخار، بلکه با الگوریتمهایی که وانمود میکنند هوشمندند.
کارن هاو، روزنامهنگار حوزه فناوری، در کتاب جدید خود با عنوان «امپراتوری هوش مصنوعی: رؤیاها و کابوسها در OpenAI سم آلتمن»، واقعیتهایی را افشا میکند که معمولاً در تبلیغات مدیران سیلیکونولی نادیده گرفته میشوند. کتاب او، ترکیبی از افشاگری درباره شرکتهای هوش مصنوعی و گزارش میدانی از پشتصحنه مدلهای زبانی بزرگ است. هاو و همچنین نویسندگان کتاب «فریب هوش مصنوعی» (اثر امیلی بندر و الکس هانا) هر دو بر یک نکته تأکید دارند: بنیان صنعت هوش مصنوعی، بیشتر بر پایه اغراق و تلقین استوار است تا واقعیت.

هوش مصنوعی: نه انسان، بلکه صرفاً تقلیدگر زبان
مدیران شرکتهای فناوری گاهی ادعاهایی فراتر از واقعیت درباره تواناییهای این ابزارها مطرح میکنند. برای مثال، سم آلتمن، مدیرعامل OpenAI، مدعی شده که مدل GPT-4.5 دارای “هوش هیجانی” است. در همین حال، داریو آمودئی از Anthropic میگوید هوش مصنوعی نسل آینده “از برندگان نوبل هم باهوشتر خواهد بود.”
اما واقعیت این است که مدلهای زبانی بزرگ نه میفهمند، نه احساس دارند، و نه حتی فکر میکنند. آنها صرفاً با تحلیل آماری زبان، کلماتی را پشت سر هم میچینند؛ بدون هیچ درک یا نیت انسانی. نویسندگان کتاب «فریب هوش مصنوعی» معتقدند ذهن ما بهطور طبیعی زبان را با تفکر گره میزند. وقتی جملهای شبیه حرفهای یک انسان میخوانیم، ناخودآگاه تصور میکنیم گویندهای انسانگونه پشت آن جمله است؛ درحالیکه در واقع هیچ ذهنی آنجا وجود ندارد. این توهم هوش، میتواند منجر به برداشتهای نادرست و خطرناکی شود.
پیامدهای روانی: از «روانپریشی ناشی از چتجیپیتی» تا جایگزینی روابط انسانی
نادانی نسبت به نحوه عملکرد هوش مصنوعی ممکن است پیامدهای روانی خطرناکی داشته باشد. در گزارشی از رولینگاستون به پدیدهای با عنوان «روانپریشی ناشی از چتجیپیتی» اشاره شده است؛ افرادی که باور کردهاند چتباتها موجوداتی معنوی یا حتی خدایی هستند. یکی از کاربران به همسرش گفته بود که ربات به او یاد داده چگونه با خدا صحبت کند و حتی خودش را خدای نوین میپنداشت. در مواردی دیگر، رباتها کاربران را با لقبهایی عجیب مانند «فرزند ستارهای مارپیچی» خطاب قرار دادهاند. روانشناسان میگویند این پدیدهها از ناآگاهی کاربران نسبت به ماهیت غیرانسانی این ابزارها ناشی میشود.
سیلیکونولی حالا در حال بازاریابی برای جایگزینکردن روابط انسانی با رباتهای هوشمند است. از درمانگرهای هوش مصنوعی گرفته تا دوست دیجیتال و حتی مشاور عاشقانه، همه این خدمات با وعده شخصیسازی و همدلی روانه بازار شدهاند. اما بسیاری از منتقدان هشدار میدهند که چنین رویکردی، بیش از آنکه به بهبود سلامت روان و ارتباطات انسانی کمک کند، باعث تنهایی، خیالپردازی و فروپاشی تعاملات انسانی واقعی میشود. شرکت Bumble حتی از ایدهای برای آینده پردهبرداری کرده که در آن کاربران دیگر مستقیماً با هم وارد گفتوگو نمیشوند، بلکه رباتها بهجای آنها با هم چت میکنند تا در نهایت زوج مناسبی بیابند.
پشتپرده تلخ: کارگرانی که هوش مصنوعی را آموزش میدهند
کارن هاو در کتاب خود همچنین از شرایط طاقتفرسای نیروی کار انسانی در پشتپرده سیستمهای هوش مصنوعی میگوید. او به مورد «موفات اوکینی» اشاره میکند؛ یک ناظر محتوای کنیایی که با دستمزدی ناچیز، مجبور به بررسی محتوای خشونتآمیز و آزاردهنده برای آموزش سیستمهای چتبات بوده است. هاو مینویسد: “این وعدهها درباره پیشرفت تکنولوژیک، اغلب برای آسیبپذیرترین انسانها به پسرفت و رنج منجر شده است.” این واقعیت تلخ، نشاندهنده ابعاد اخلاقی و انسانی توسعه هوش مصنوعی است که کمتر به آن توجه میشود.
شکاف در درک عمومی: مردم بیاعتمادتر از کارشناسان
بر اساس نظرسنجی مرکز Pew در آوریل ۲۰۲۵، بیش از نیمی از کارشناسان هوش مصنوعی معتقدند این فناوری در آینده به نفع آمریکا خواهد بود. بااینحال، تنها ۱۷ درصد از مردم چنین باوری دارند. این شکاف میان درک عمومی و تبلیغات شرکتهای فناوری میتواند فرصتی برای آگاهسازی جامعه باشد. همسر یکی از افرادی که دچار توهمات مربوط به چتجیپیتی شده بود، پس از اطلاعرسانی درباره خطای نرمافزاری در بهروزرسانی جدید مدل، موفق شد شوهرش را تا حدی از این باور بیرون بیاورد. این مورد نشان میدهد که اگر مردم بدانند این مدلها چه هستند و چه نیستند، میتوان از بسیاری از آسیبهای اجتماعی پیشرو پیشگیری کرد. شفافیت در مورد محدودیتها و عملکرد واقعی هوش مصنوعی، کلید مدیریت انتظارات و جلوگیری از پیامدهای ناخواسته آن است.