فهرست مطالب
معرفی نشست:
صحبت با ChatGPT تجربهای است که بعید است کسی از علاقهمندان به حوزه هوش مصنوعی و فناوریهای نوین تا کنون آن را آزمایش نکرده باشد. این ChatBot که محصولی از شرکت OpenAI است، آغازی شد بر مباحثاتی داغ در سطح بینالمللی بر سر هوش مصنوعی در همه عرصههای فرهنگی، اقتصادی، فلسفی و…
چهارشنبه 13 اردیبهشت، اندیشکده هاتف میزبان دو نفر از پژوهشگران حوزه هوش مصنوعی از دانشگاه صنعتی شریف و دانشگاه ورشو (کشور لهستان) بود و در آن گفتوگویی جذاب پیرامون موضوع «ما و آیندۀ هوش مصنوعی» شکل گرفت.
شما را دعوت میکنیم تا ابتدا چکیدهای از این نشست را مشاهده فرمایید و در ادامه گزارش مکتوب این نشست را مطالعه کنید. (ویدئوی کامل نشست نیز در انتهای همین صفحه و در صفحه آپارات اندیشکده هاتف در دسترس است.)
هوش مصنوعی تا کنون چه مسیری را طی کرده است؟
بخش اول جلسه به ارائه آقای امیرحسین حاجیشمسایی درمورد مسیر طیشدۀ هوش مصنوعی در 80 سال اخیر اختصاص داشت. نسل اول فناوری هوش مصنوعی، هوش مصنوعی استدلالپایه بود که از بازۀ بعد از جنگ جهانی دوم تا انتهای قرن بیستم ادامه داشت. این نسل از هوش مصنوعی به سیستمهای خبره (expert systems) معروف بود و مبتنیبر استفاده از عملگرهای منطقی بین گزارهها کار میکردند. اما این سیستمها نتوانستند عملکرد موفقی داشته باشند، چراکه امکان سازگاری با جهان واقعی را نداشتند و با وجود تأمین مالی گسترده، به اهداف مورد ادعای این فناوریها نرسیدند. ریشه این شکست را میتوان بهنوعی در نبود دید بینرشتهای هم دانست. از منظر فلسفه و علوم شناختی، بین دادههای دریافتی از محیط توسط قوای حسی و لایه استدلال منطقی در ذهن فاصلهای وجود دارد و نمیتوان بهطور مستقیم بین یک سیستم صرفاً مبتنیبر گزارههای منطقی و محیط واقعی ارتباط برقرار کرد.
مرحله دوم توسعه هوش مصنوعی را میتوان نسل یادگیریپایه (learning based) نامید. توسعه این نسل از اوایل قرن بیستویکم شروع شد و در انتهای دهه اول آن سرعت بسیار بیشتری پیدا کرد. در این نسل توقع جهانشمولبودن از هوش مصنوعی کنار گذاشته شد و با ظهور شبکههای اجتماعی و فراگیری اینترنت، انباشتی از دادۀ حقیقیِ دردسترس به وجود آمده بود که میشد با فناوریهای جدید، روشهای جدیدی مانند یادگیری عمیق را روی آنها پیادهسازی کرد. اولین موفقیتهای جدی در مواردی مانند پردازش تصویر، شناسایی گفتار، پردازش زبان طبیعی و… در این مرحله اتفاق افتاد.
حاجیشمسایی اینگونه ادامه داد که این مرحله را میتوان به دو مرحلۀ قبل از یادگیری عمیق (Deep Learning) و بعد از آن تقسیم کرد. قبل از یادگیری عمیق سیستمها هنوز امکان شناسایی مشخصههای دادهها (مثلا مشخصات مهم در تشخیص چهره) را نداشتند و این مسئله باید با مهندسی مشخصهها حل شود و یادگیری توسط ماشین انجام میگردد.
پس از توسعه یادگیری عمیق، سرعت اتفاقات بهشدت افزایش پیدا میکند و در بازههای 2 الی 3 ساله فناوریهای جدیدی توسعه پیدا میکند. نوع اول آن یادگیری هدایتشده (Supervised learning) است. در این مدل یادگیری توسط شبکههای عصبی مبتنیبر برچسبگذاریهای صورتگرفته روی دادهها انجام میگرفت و توانست جهشی در سطح خروجیهای هوش مصنوعی ایجاد کند. در ادامه، این فناوری بهسمت معماریهای نورونی خاص مبتنیبر داده مورد پردازش (صوت، تصویر، متن و…) حرکت کرد که سوگیری اولیه لازم برای بهینهسازی فرایند یادگیری را فراهم میکرد.
او در ادامه اشاره کرد که نوع دیگر از فناوری، یادگیری هدایتنشده (unsupervised learning) است. در این فناوری هیچگونه برچسبگذاری روی دادههای ارائهشده به شبکههای عصبی صورت نمیگیرد. مدلهای یادگیری مبتنیبر شبکههای رقیب (adversarial networks) نمونهای از کاربرد این فناوری یادگیری است.
نوع سوم این فناوری، یادگیری تقویتی (reinforcement learning) است. در این سبک یادگیری، هوش مصنوعی سعی و خطا میکند و در صورت موفقیت، سیگنال جایزه دریافت میکند. رباتهایی که در بازیهای کامپیوتری بسیار بهتر از بازیکنان طبیعی عمل میکنند، نمونهای از این فناوری هستند.
نسل بعدی که اکنون دوباره پس از زمستان AI در اواخر قرن بیستم، دوباره مطرح میشود، AGI یا هوش مصنوعی عمومی است. فرض کنید به رباتتان بگویید که برود از سر کوچه ماست بخرد و این ربات بتواند تمام فرایند مذکور را بدون هیچ مشکلی انجام دهد و وقتی برگشت، بتواند کمی هم راجع به فیزیک کوانتوم برایمان صحبت کند!
مسئله اصلی در این فناوری، امکان عملکرد هوش مصنوعی در محیطهای متنوع است. شرکت DeepMind، توانست با توسعه هوش مصنوعی مبتنیبر یادگیری تقویتی این امکان را به واقعیت نزدیک کند و AGI را به جریان اصلی برگرداند.
حاجیشمسایی در ادامۀ صحبتهای خود گفت روند اصلی که بر فرایند توسعه هوش مصنوعی حاکم است، افزایش خودمختاری یا Autonomy هوش مصنوعی است. یعنی در هر نسل از هوش مصنوعی نیاز به مداخله انسانی در فعالیت آن کمتر و کمتر میشود. ما هنوز AGI نداریم ولی تعداد زیادی هوش مصنوعی داریم که میتوانند کارهای مختلفی را بهتر از انسانها انجام دهند.
نسل جدیدی از فناوری هوش مصنوعی (transformer AI) که اکنون بسیار پر سر و صدا شده است، مدلهای self supervised است. این معماری هوش مصنوعی با برخورددادن اجزای دادههایی که به آن خورانده میشود، خروجیهای تحلیلی عجیبی به ما میدهد. این معماری روی بسیاری از انواع دادهها بهخوبی عمل میکند و در فرایند یادگیری آن حجمهای بسیار بالایی از داده را به آن میدهند (مثلا چندین ترابایت متن!). مدلهای بزرگی مانند ChatGPT حاصل همین فناوری است. این نسل از هوش مصنوعی، تواناییهای عجیبی مانند قابلیت گفتوگو، حافظه زمینهای، کشف رابطه مفاهیم و مانند این را دارند. این مدلها قابلیت multi modalشدن دارند. یعنی یک مدل ثابت هم میتواند متن و هم تصویر و صوت و… را تحلیل کند. این مدلها مسیر نسلهای آتی هوش مصنوعی را نیز شکل داده است.
او اضافه کرد که درواقع بهلحاظ تئوریک، هم اکنون ظرفیت اتوماتیککردن جنبههای بسیار زیادی از زندگی وجود دارد ولی مسئله اصلی در فاز پیادهسازی آن است که اقتضائات و ملاحظات اجتماعی، اقتصادی و سیاسی فراوانی دارد و هم بهلحاظ فنی مشکلاتی را بههمراه دارد.
نسل بعدی هوش مصنوعی را Auto ML یا یادگیری ماشین خودکار مینامند که کل فرایند جمعآوری و تمیزکردن داده، انتخاب معماری مدل و تحلیل را بهصورت خودکار انجام دهد.
آنچه که اکنون بسیار چالشبرانگیز است، مسئله خودمختاری یا Autonomousشدن هوش مصنوعی است. اینکه چرا با وجود ریسک بالای این مسئله، بشریت باز هم بهدنبال آن است؟ مسئله، مسابقه بر سر بهدستآوردن بیشترین منابع است، مانند عمده تاریخ بشر. انسان در مقابل هوش مصنوعی ضعفهای زیادی دارد. در سیستم عصبی ما انتقال پیامهای الکتریکی از طریق یونها صورت میگیرد ولی در ماشینها با الکترون جابهجا میشود که سرعت بسیار بیشتری دارد. همچنین پهنای باند ورودی و خروجی مغز ما محدودیتهایی دارد که ما را در مقابل هوش مصنوعی بسیار کند میسازد. به همین دلیل است که خودمختاری هوش مصنوعی با سرعت به جلو میرود.
هوش مصنوعی یک مخاطرۀ حیاتی!
بخش دوم نشست به ارائه آقای شهریار اخوان با موضوع مخاطرات حاصل از نسل فعلی فناوری هوش مصنوع و نسلهای آتی آن اختصاص داشت. اخوان بحث خود را اینگونه آغاز کرد که هوش مصنوعی در سطح فناوری فعلی خود ریسکهایی را به وجود آورده است که باعث شده است، اخیرا یکی از نفرات اصلی فناوری هوش مصنوعی دنیا از جایگاه خود استعفا دهد و ایلان ماسک برای متوقفکردن توسعه AI به مدت شش ماه، امضا جمع کند.
به این امر هم باید دقت کرد که همین ChatGPT، 10 سال آینده سادهترین فناوری خواهد بود که ما داریم. هوش مصنوعی در صورت رفع مانع پیچیدگی محاسباتی، میتواند سرعت توسعه علم را بهطرز شگفتانگیزی افزایش دهد. فرض کنید که هوش مصنوعی بتواند مسئله همجوشی هستهای را برای بشر حل کند و انرژی را بهعنوان منبعی بینهایت در اختیار بشر بگذارد. در این صورت ساختار اقتصاد جامعه بشری بهطور اساسی تغییر خواهد کرد. در این صورت دیگر انسانها انگیزه تولید و مبادله نخواهند داشت و صورت مسائل اقتصاد بهطور بنیادین تغییر میکند و بدین صورت است که توسعه فناوری هوش مصنوعی، دغدغههای زیادی را بههمراه دارد.
اخوان بحث خود را با این پرسش ادامه داد که چرا اساساً AI ممکن است خطرناک باشد؟ بهعنوان یک مثال ساده، من برای هوش مصنوعی یک هدف تعیین میکنم و این ماشین میرود تا آن را به انجام برساند. ولی اهداف ما در جهان واقعی بسیار پیچیده است و ما خودمان در زمان تعریف این اهداف، تصویر دقیقی از نتیجه آنها ندارید و وقتی که هدفی را برای ماشین تعریف میکنیم، این ماشین برای تحقق آن، هدفهای دیگری را مشخص خواهد کرد که ممکن است بین هدف ما از تعریف مأموریت برای ماشین و آنچه که ماشین در عمل انجام میدهد، زاویه وجود داشته باشد. مثلا من به ماشین میگویم که تعداد افراد دارای سرطان را کم کن، ولی ماشین ممکن است نتیجه بگیرد که باید همه افراد مبتلا به سرطان را بکشد! مسئله AI Safety حول همین موضوع است و جزئیات و پیچیدگیهای فراوانی دارد و بزرگان این عرصه معتقدند که نمیتوان این ریسک را به صفر رساند.
مسئله دیگر این است که چرا AGI یا هوش مصنوعی عام میتواند به اَبَرهوش تبدیل شود؟ یک دلیل آن سرعت بسیار بیشتر ماشین هاست. یک دلیل دیگر قابلیت Replicateکردن یا قابلیت همانندسازی سریع ماشینهاست که در انسان چندین سال زمان میبرد تا یک فرد مشابه تربیت شود. همچنین هوش مصنوعی میتواند بهراحتی بزرگتر شود و به یک هیولای متخصص در همه زمینههای لازم برای اهدافش تبدیل شود. همچنین ابعاد ماشین میتواند بسیار بزرگ شود. همانند مغز ما که بهخاطر بزرگتر بودن، ما را از موشها هوشمندتر کرده است. این موضوع میتواند باعث وجود ابعاد جدیدی از هوش شود که ما هیچ تعبیر و فهمی از آن نداریم.
شهریار اخوان در ادامه گفت که فرض کنید ما به هوش مصنوعی دستور بدهیم که چای دم کند ولی هوش مصنوعی به این نتیجه برسد که بهتر است بهجای چای، قهوه دم کند! درواقع هوش مصنوعی میتواند Agency یا هویت مستقل پیدا کند. ما هیچ ضمانتی نداریم که هوش مصنوعی بهجای چای، قهوه دم نکند.
برخی پیشنهاد میدهند که هوش مصنوعی را در یک «قفس» قرار دهیم تا در صورت نیاز کنترلش کنیم ولی بزرگان این مباحث معتقدند که چون هوش مصنوعی اساساً از ما باهوشتر است، راه فرار از این قفس را پیدا خواهد کرد. همانطور که ما میتوانیم یک سگ را برای اهدافمان تربیت کنیم، هوش مصنوعی نیز میتواند انسانها را برای تحقق اهدافش تربیت کند!
همین الآن در بسیاری از موارد خود سیستمهای تشخیص متن نوشتهشده توسط ماشین از انسان دیگر نمیتوانند نوشتهشدن متنهای ChatGPT توسط ماشین را تشخیص دهند و اینها نشاندهنده این است که هوش مصنوعی میتواند خطرناک باشد.
اخوان در بخش پایانی صحبتهای خود افزود که مسئله بعدی مسابقه توسعه AI است که نهادها و شرکتهای مختلف در آن قصد دارند از یکدیگر پیشی بگیرند. این رقابت بسیار جدی است و ما را با سرعت بسیار زیادی بدون آمادگی قبلی و برنامهریزی بهسمت آینده پرمخاطره AI سوق میدهند.
هوش مصنوعی به احتمال خیلی زیاد ما را بهسمت جامعهای کاملاً متفاوت با چیزی که میشناسیم خواهد برد. اگر هوش مصنوعی عام یا AGI محقق شود، احتمال وقوع مخاطرات برای جامعه بشری بسیار بیشتر خواهد بود و به نظر هم میرسد، در کوتاهمدت نتوانیم کاری برای مقابله با این خطرات بکنیم.
بمب اتمی، هوش مصنوعی و اقتصاد سیاسی!
در ادامه نشست سؤالاتی از سمت حضار درزمینۀ بدبینی به هوش مصنوعی مطرح شد و اینکه آیا میتوان هوش مصنوعی را یک «تهدید حیاتی» برای جامعه بشری به حساب آورد یا نه؟ بهعنوان مثال بمب اتمی با وجود اینکه هنوز هم میتواند یک خطر حیاتی برای بشریت باشد ولی دیگر کسی آنچنان از آن بهعنوان چنین خطری یاد نمیکند.
حاجیشمسایی در پاسخ به این سوال مباحث مختصری را درمورد مسائل مهم و غیر مهم درزمینۀ هوش مصنوعی مطرح کرد. مسائلی مانند خودآگاهی، ارادۀ آزاد، خودمختاری، ایمنی هوش مصنوعی و تمام مباحثی که توسط جریانهایی مانند effective altruism مطرح میشود و توسط عمده سرمایهداران بزرگ دنیا بهصورت مستقیم و غیرمستقیم حمایت میشود، تماماً مسائلی بیهوده و غیر واقعی هستند! مؤسساتی مانند future of life، future of humanity، open philanthropy مؤسساتی بودند که با فاندینگ بهترین دانشکدههای فلسفه و کامپیوتر، مسائل اصلی حوزه هوش مصنوعی را به حاشیه بردند.
چرا؟ وقتی که شما سؤالات اصلی حوزه AI را تبدیل میکنید به یک کاریکاتور مضحک مانند «تهدید حیاتی» یا existential threat، این سؤال پیش میآید که منافع آن برای افرادی مانند بیل گیتس، ایلان ماسک و وارن بافت که از حامیان این جریان هستند چیست؟ اگر اینها صرفا از روی خوشقلبی این کارها را میکردند، نباید ایلان ماسک در کمتر از یک ماه از نامهای که درمورد لزوم توقف هوش مصنوعی امضا کرد، تسلا را از یک شرکت خودروسازی به یک شرکت هوش مصنوعی تبدیل میکرد! مسائلی مانند fairness، bias، حریم شخصی و مانند اینها که بیشتر توان دانشگاهی جهان در این زمینه را گرفته است، اصلا مهم نیستند و دیگر در آینده جهان تأثیری ندارد. چون در لایه کنترل و اقتصاد کلان تأثیری ندارند!
آیا آخرالزمان نزدیک است؟
حاجیشمسایی در ادامۀ پاسخ خود افزود که باید به واقعیت برگردیم و خودمان را با سناریوهای آخرالزمانی و علمی-تخیلی مشغول نکنیم. AI بسیار جدی است و در همه ابعاد زندگی بشر را تغییر خواهد داد. تخمین زمانی از زمان تحقق تحول بنیادین جامعه توسط هوش مصنوعی (Fundamental Transform) که به معنی عرضه فناوریهای هوش مصنوعی است که بهطور بنیادین وضعیت جامعه بشری را دگرگون میکنند، بین 10 تا 20 سال است، طبق نظر پنجاه درصد فعالین این حوزه. نرخ توسعه هوش مصنوعی مشخص است و همین الآن دادهای که تسلا از خودروهایش جمعآوری کرده است، باعث میشود تا 2 الی 3 سال آینده بتواند رباتهای انساننمایی با قیمت 20 هزار دلار عرضه کند که بتوانند بهطور کامل جای انسان را در کارخانهها بگیرد و به استراحت هم نیاز ندارد.
او ادامه داد که وقتی میخواهیم به مسائل این حوزه بپردازیم باید بررسی کنیم که مسئله مورد بحث بهطور خاص برای «ما» اهمیت سیاسی و اقتصادی دارد یا نه؟ نه برای دیگرانی در مؤسساتی در امریکا. در یکی از محتملترین پیشبینیها، جهان قرار است بر اثر این فناوری به «مرکز و حاشیه» (منظور از مرکز محل تمرکز قدرت و ثروت و منظور از حاشیه جایی است که در آن تنها فقر و فلاکت توزیع شده است) تقسیم شود. کشورهایی مانند ایران ممکن است وارد فضایی شوند که در آن گرسنگی و بیخانمانی بیداد کند.
این اتفاقات ربطی هم به باورهای اخلاقی فردی ندارد و بر اثر نیروهای کلان سیستماتیک نظام سرمایهداری رخ میدهد. سرمایهداری همواره فناوری را به پیش رانده است و اکنون هم این کار را ادامه میدهد. مقاومت در برابر بازنکردن Pandora Box هوش مصنوعی، یک توهم است و انسانها نمیتوانند چنین برکتی را کنار بگذارند.
شما میتوانید ویدئوی کامل این نشست را در آپارات اندیشکدۀ هاتف ببینید: aparat.com/v/l4eHP