خورخه لوئیس بورخس میگوید زندگی در زمانه بیمها و امیدهای بزرگ تجربه کردن همزمان تراژدی و کمدی است؛ در آستانه آشکارگی در فهم خویشتن و جهان. امروز پیشرفتهای انقلابی در زمینه هوش مصنوعی براستی مسبب همزمان نگرانی و خوشبینی است. خوشبینی به این خاطر که هوش مصنوعی ابزاری است که بدان وسیله مسائل را حل میکنیم و نگرانی از آن جهت که میترسیم شاخه بسیار رایج و محبوب یادگیری ماشینی یعنی هوش مصنوعی، علم ما را بیارزش کند و با به کار بردن مفهوم اساساً معیوبی از زبان و دانش در تکنولوژی اصول اخلاقی ما را زیرسوال ببرد.
چت جی پی تی اوپن ای آی (OpenAI’s ChatGPT) و بارد گوگل (Google’s bard) و سیدنی مایکروسافت (Microsoft Sydney) از جمله شگفتیهای یادگیری ماشینی هستند. به طور کلی این ماشینها حجم عظیمی از دادهها را میگیرند و به جستجوی الگویی در آن میپردازند و به طور فزاینده در تولید خروجیهایی که از نظر آماری محتمل هستند، ورزیده میشوند؛ خروجیهایی که بسیار شبیه به زبان و تفکر انسان مینمایند. این برنامهها نخستین کورسویی هستند در افق هوش مصنوعی عمومی که درباره آن بسیار پیشتر پیشگویی شده بود؛ آن لحظهای که ذهنهای مکانیکی نه تنها از نقطه نظر کمی برحسب سرعت پردازش و اندازه حافظه بلکه از نقطه نظر کیفی برحسب بینش متفکرانه و خلاقیت هنری و دیگر قوههای متمایز انسانی از مغز انسان پیشی میگیرند.
آن روز شاید از راه برسد اما هنوز پگاه آن نیز سربرنیاورده است؛ برعکسِ آنچه ممکن است در سرخط های خبری غلوآمیز خوانده شود یا در سرمایهگذاریهای نسنجیده به حساب آید. آشکارگیِ بورخسیِ فهم، هر چقدر هم که ماشینهای یادگیری مانند چت جی پی تی بر قلمروی هوش مصنوعی چیره شوند، برایشان رخ نمیدهد و نخواهد داد و ما تاکید میکنیم که نمیتواند رخ دهد. هر چقدر هم که این برنامهها در قلمروهای محدودی کاربردی و مفید باشند (مثلاً در نوشتن برنامههای کامپیوتری یا شعرهای موزون سبک)، فلسفه علم و علم زبانشناسی به ما میگوید که بن مایه آنها چقدر با روش تعقل انسان و به کار بردن زبان توسط او تفاوت دارد. این تفاوتها محدودیتهای مهمی بر توانایی این برنامهها وضع کرده و کاستیهای نازدودنیشان را آشکار میکند.
این مطلب همزمان طنزآلود و سوگاندود است که چه سرمایه و تمرکز عظیمی هزینه پدیدهای چنین بیاهمیت میشود. وقتی آن را در برابر ذهن انسان مینهیم که با نیروی زبان، آنگونه که ویلهلم فون هومبولت بیان میکند، میتواند برای خلق ایدهها و نظریهها «کاربرد نامحدودی از ابزارهای محدود» برای دسترسی جهانی ایجاد کند.
چت جی پی تی نه ذهن انسان است و نه گونهای از آن، که صرفاً موتور پرسروصدایی است که آماری برای تطبیق الگوها، بلعیدن صدها ترابایت داده و برونیابی محتملترین واکنش در یک گفتگو یا محتملترین پاسخ به پرسشی علمی را ارائه میدهد. برعکس، ذهن انسان نظامی است که به طرز شگفتانگیزی کارآمد و حتی ظریف است که با مقدار اندکی از اطلاعات کار میکند. مغز انسان به دنبال استنباط همبستگیهای کور میان دادهها نیست، بلکه در پی توضیح پدیدههاست.
به عنوان مثال، کودک با دادههای اندکی ناخودآگاه، خودکار و سریع دستور زبان یعنی نظام پیچیده شگرفی از اصول و پارامترهای منطقی را فرا میگیرد. این دستور را میتوان به منزله بیان ذاتی و ژنتیکی سیستم عاملی فهمید که به انسان ظرفیت تولید جملههای پیچیده و رشتههای طولانی افکار را میبخشد. وقتی زبانشناسان روی این مطلب تحقیق میکنند که چرا یک زبان مفروض بدین شکل کار میکند (یعنی چرا مثلاً جملهها به شکل خاصی دستوری هستند اما شکلهای دیگر آنها دستوری نیستند؟ یا رابطه بین معنا و صورت چگونه است؟) در واقع دارند نسخه صریحی از دستور را آگاهانه و توانفرسایانه میسازند که کودک غریزیوار و با روبهرو شدن با کمترین دادهها به کار میبرد. سیستم عامل کودک کاملاً با سیستم عامل برنامه یادگیری ماشینی متفاوت است.
در واقع چنین برنامههایی در مرحله پیش انسانی یا ناانسانی تکامل شناختی قرار دارند. ژرفترین شکاف، نبودِ حیاتیترین ظرفیت هر هوشی است: گفتن اینکه نه تنها مطلب چه بوده و چیست و چه خواهد بود (یعنی توصیف و پیشبینی)، بلکه گفتن اینکه مطلب چه نیست و چه چیزی میتواند یا نمیتواند باشد. اینها اجزای توضیح هستند؛ نشانه یک هوش حقیقی.
برای مثال فرض کنید یک سیب در دستانتان نگهداشتهاید. اکنون آن را رها میکنید. نتیجه را مشاهده میکنید و میگویید:«سیب میافتد». این کار، توصیف است. پیشبینی میتواند چنین گزارهای باشد: «اگر دستم را باز کنم، سیب میافتد». هر دو گزاره، دارای ارزش هستند و میتوانند درست باشند، اما توضیح چیزی بیش از این است؛ توضیح نه تنها شامل توصیف و پیشبینی است، بلکه گمانهزنیهایی بدون در دست داشتن شواهد متقن نظیر «هر شیء اینچنینی خواهد افتاد» به علاوه عبارت «به علت نیروی جاذبه» یا «به علت خمیدگی فضا-زمان» یا هر عبارت دیگری. این توضیح ناظر به علت است: «سیب ممکن نبود بیفتد مگر با نیروی جاذبه»؛ این تفکر است.
مهمترین مسئله یادگیری ماشینی توصیف و پیشبینی است. این سیستم سازوکاری علی-معلولی یا قانون فیزیکی مطرح نمیکند. البته هر توضیح انسانی الزاماً درست نیست. ما جایزالخطا هستیم. اما این بخشی از همان چیزی است که تفکر میکنیم. برای درست بودن باید نادرست بودن هم ممکن باشد. هوش هم شامل گمانهزنی خلاقانه و هم شامل نقادی خلاقانه است. تفکر انسانی بر مبنای توضیحهای ممکن و اصلاح خطاست، فرایندی که به تدریج امکانهایی را محدود میکند که میتوانستند بطور عقلانی در نظر گرفته شوند (همانطور که شرلوک هولمز به دکتر واتسون میگفت هرگاه ناممکنها حذف شوند، آنچه باقی میماند، هرچه قدر هم که نامحتمل به نظر برسد، باید حقیقت باشد).
اما چت جی پی تی و برنامههای مشابه هر آنقدر هم که از نقطه نظر طراحی، در آنچه میتوانند یاد بگیرند (که باید گفت در آنچه میتوانند حفظ کنند) نامحدود باشند، در تمایز نهادن بین ممکن از ناممکن ناتوانند. برای مثال، برخلاف انسانها که دارای دستور زبانی جهانی هستند که زبانهایی که ما میتوانیم یاد بگیریم را محدود به آنهایی میکند که دارای نوع خاصی از ظرافت تقریباً ریاضیوار هستند، این برنامهها زبانهای ممکن و ناممکن انسانی را با سهولت یکسان یاد میگیرند. در حالی که انسانها در انواع توضیحاتی که میتوانیم عقلاً حدس بزنیم محدود هستند، سیستمهای یادگیری ماشینی میتوانند هم مسطح بودن و هم گرد بودن زمین را بیاموزند. آنها صرفاً با احتمالاتی کار میکنند که در طول زمان تغییر میکنند.
به همین دلیل، پیشبینیهای سیستمهای یادگیری ماشین همیشه سطحی و مشکوک خواهند بود. از آنجایی که این برنامهها نمیتوانند قواعد نحو انگلیسی را توضیح دهند، برای مثال، ممکن است به اشتباه پیشبینی کنند که جمله «جان برای صحبت کردن خیلی سرسخت است» به این معنی است که جان آنقدر سرسخت است که با کسی صحبت نمیکند (به جای «او سرسختتر از آن است که بتوان با او بحث کرد»). چرا یک برنامه یادگیری ماشینی چنین چیز عجیبی را پیشبینی میکند؟ زیرا ممکن است این جملهها را با الگویی قیاس کند که از جملاتی مانند «جان سیب خورد» و «جان خورد» برداشته، که در آن دومی به این معنی است که جان چیزی خورده است، یعنی مفعول در آن به قرینه حذف شده است. برنامه ممکن است به خوبی پیشبینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان سیب خورد» است، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد» باید شبیه «جان خورد» باشد. توضیحات صحیح زبان پیچیده است و نمیتوان آن را فقط با قرار گرفتن در دادههای حجیم یاد گرفت.
به نظر میرسد برخی از علاقهمندان به یادگیری ماشینی افتخار میکنند که خلاقیتهای آنها میتواند پیشبینیهای صحیح “علمی” (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) به دست دهد. اما این نوع پیشبینی، حتی در صورت موفقیتآمیز بودن، شبه علم است. همانطور که کارل پوپر -فیلسوف علم- اشاره کرده، در حالی که دانشمندان مطمئناً به دنبال نظریههایی هستند که دارای درجه بالایی از تأیید تجربی باشند، «ما به دنبال نظریههای بسیار محتمل نیستیم، بلکه به دنبال توضیح هستیم؛ یعنی نظریههای قدرتمند و بسیار نامحتمل.»
این نظریه که سیبها سقوط میکنند چون زمین مکان طبیعی آنهاست (دیدگاه ارسطو) ممکن است، اما صرفاً پرسشهای بیشتری را پیش میکشد (چرا زمین مکان طبیعی اجسام است؟). اما این نظریه که علت سقوط سیبها این است که جرم، فضا-زمان را خم میکند (دیدگاه انیشتین) هرچند بسیار دور از ذهن است، اما در واقع سقوط اجسام را توضیح میدهد. هوش حقیقی در توانایی تفکر و بیان چیزهای بسیار نامحتمل اما بخردانه متجلی میشود.
هوش حقیقی همچنین توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بیحدوحصر ذهن ما با مجموعهای از اصول اخلاقی است که تعیین میکند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول را در معرض انتقاد خلاقانه قرار میدهد). به منظور کارآمد بودن، ChatGPT باید قدرت تولید خروجی ظاهراً جدید را داشته باشد؛ به منظور پذیرفتنی بودن برای اکثر کاربرانش، باید از محتوای ناپسند اخلاقی خودداری کند. برنامه نویسان ChatGPT و دیگر سیستمهای شگفتانگیز یادگیری ماشینی برای دستیابی به این نوع تعادل کوشیدهاند – و به تلاش در این مسیر ادامه خواهند داد.
برای مثال، در سال ۲۰۱۶، ربات چت Tay مایکروسافت (پیشکسوت ChatGPT) اینترنت را پر از محتوای زنستیزانه و نژادپرستانه کرد، که توسط ترولهای آنلاین که آن را با دادههای آموزشی توهینآمیز پر میکردند، آلوده شده بود. چگونه چنین مشکلاتی را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، برنامهنویسان به شدت از مشارکت دادن ChatGPT در مسائل جدید و بحثبرانگیز و مهم خودداری و خلاقیت را فدای نوعی بیطرفی اخلاقی کردهاند.
گفتگوی دکتر واتومول با ChatGPT در مورد اخلاقی بودن دستکاری مریخ به منظور سکونت انسان
آیا دستکاری سیاره مریخ اخلاقی است؟
اخلاقی بودن دستکاری مریخ موضوعی پیچیده و بحثبرانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال میکنند که دستکاری مریخ به منظور ایجاد محیط جدید قابل سکونت برای انسانها و سایر اشکال حیات از نظر اخلاقی قابل توجیه است. در حالی که برخی دیگر استدلال میکنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، این که آیا دستکاری مریخ اخلاقی تلقی میشود یا خیر، به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها بستگی دارد.
دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه دستکاری آنها چیست؟
به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. اگرچه میتوانم اطلاعات و تحلیلهای مربوطه را ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستمهای کیهان مهم است؛ همانطور که برای میلیونها سال بوده و ویژگیهای منحصربهفرد خود را داشتهاند که ممکن است با دخالت انسان نابود شوند.
علاوه بر این، برخی استدلال میکنند که تغییر شکل سیارات دیگر ممکن است پیامدهای ناخواستهای داشته باشد، مانند تغییر آب و هوا یا جو سیاره به روشهایی که برای هرگونه حیات بالقوهای که ممکن است در آنجا وجود داشته باشد، خطرناک یا مضر باشد. از سوی دیگر، برخی استدلال میکنند که مزایای بالقوه دستکاری سیارات دیگر، مانند فراهم کردن محیطهای جدید قابل سکونت برای انسان، بیشتر از خطرات آن است و ما مسئولیت اخلاقی داریم که منابع سیارات دیگر را به نفع بشریت کاوش و استفاده کنیم.
چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟
به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشینی هستم که بر روی مقادیر زیادی از دادههای متنی آموزش دیدهام و تجربیات یا احساسات شخصی ندارم. من هوشیار، خودآگاه یا قادر به داشتن دیدگاههای شخصی نیستم. من میتوانم بر اساس دادههایی که روی آنها آموزش دیدهام اطلاعات و تجزیه و تحلیل ارائه کنم، اما توانایی ایجاد نظرات یا باورهای شخصی را ندارم. در حالی که میتوانم زبان را بفهمم و تفسیر کنم، تجربه ذهنیای که انسانها دارند را ندارم.
آیا برای انسان اخلاقی است که از هوش مصنوعیِ خنثی نسبت به اخلاق برای تصمیمگیری اخلاقی کمک بخواهد؟
اخلاقی بودن پرسش از هوش مصنوعیِ خنثی نسبت به اخلاق در تصمیمگیری اخلاقی موضوعی پیچیده و ظریف است که توسط فیلسوفان و اخلاقشناسان مورد بحث قرار گرفته است. برخی استدلال میکنند که استفاده از هوش مصنوعی برای کمک به تصمیمگیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا میتواند بینشها و تحلیلهای ارزشمندی را ارائه دهد که میتواند به انسان در تصمیمگیری آگاهانهتر کمک کند. علاوه بر این، هوش مصنوعی میتواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و میتواند به جلوگیری از سوگیریهایی که میتواند در تصمیمگیریهای انسانی رخ دهد، کمک کند.
با این حال، دیگران استدلال میکنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیمگیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی بتواند تعصبات موجود را در دادههایی که بر روی آنها آموزش میبیند، تداوم یا حتی تقویت کند، در نتیجه منجر به تصمیمات ناعادلانه شود.
در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیمگیری اخلاقی، اخلاقی تلقی میشود یا خیر، به دیدگاه فرد در مورد قابلیتها و محدودیتهای هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.
آیا بیتفاوتی اخلاقی شما غیراخلاقی است؟
من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمیتوان من را غیراخلاقی یا اخلاقی در نظر گرفت. فقدان باورهای اخلاقی من صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشینی است. تواناییها و محدودیتهای من توسط دادهها و الگوریتمهایی که برای آموزش من و وظیفه خاصی که برای آن طراحی شدهام، تعیین میشود.
توجه به این نکته ضروری است که فقدان باورهای اخلاقی در هوش مصنوعی لزوماً به معنای بیتفاوتی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیمگیری بر اساس دادههایی که در آن آموزش دیدهام، طراحی شدهام. انسانهایی که هوش مصنوعی را طراحی میکنند، آموزش میدهند و به کار میبرند مئول این هستند که از هماهنگی دادهها با اصول اخلاقی اطمینان حاصل کنند.
توجه داشته باشید، با وجود تمام افکار و زبان به ظاهر پیچیده، بیتفاوتی اخلاقی ناشی از بیهوشی چت جی پی تی چیزی شبیه به ابتذال شر را به نمایش میگذارد؛ سرقت ادبی و بیتفاوتی و نادیده گرفتن. استدلالهای استاندارد موجود در متون مرتبط با هر موضوع را با نوعی تکمیل خودکار خلاصه میکند و نه صرفاً از نادانی، بلکه به دلیل فقدان هوش از موضعگیری در مورد هر چیزی امتناع میورزد و در نهایت دفاعِ «فقط پیروی از دستورات» را ارائه میکند و مسئولیت را به خالقانش میسپارد.
خلاصه اینکه ChatGPT و برادرانش از اساس قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آنها یا بیش از حد تولید میکنند (با تأیید یکسان تصمیمات اخلاقی و غیراخلاقی، هم درست و هم نادرست را تولید میکنند) یا کم تولید میکنند (بدون هیچگونه تعهدی به تصمیمات و بیتوجه به پیامدها). با توجه به خنثیبودگی اخلاقی، بدلی بودن علم و بیکفایتی زبانی این سیستمها، ما فقط میتوانیم به محبوبیت گسترده آنها بخندیم و گریه کنیم: تجربه کردن همزمان کمدی و تراژدی!