داستان عشق و مرگ در شبیه‌سازی جسیکا (قسمت دوم)
۱۴۰۱/۰۱/۱۶ تاریخ انتشار

قسمت قبل را بخوانید:

پروژه مرموز (قسمت اول)

این قسمت:

پروژه دسامبر (Project December)

جِیسون رُهرِر (Jason Rohrer)، برنامه‌نویس و توسعه‌دهنده بازی‌های ویدئویی، به‌همراه همسر و سه فرزندش سوار خودروی لندکروزشان شدند. آن‌ها از آتش‌ خانمان‌سوزی که بر اثر اصابت رعدوبرق در نزدیکی منطقه یو‌سی دِیویس (UC Davis)، ایجاد شده بود، فرار می‌کردند. در شرایط معمولی، رهرر در یکی از اتاق‌های منزلش کار می‌کرد. این اتاق پر بود از رایانه‌های پیشرفته و لوازم هنری که برای به تصویرکشیدن بازی‌های رایانه‌ای به آن‌ها نیاز داشت. آتش‌سوزی باعث شده بود تا رهرر فقط یک دستگاه لپ‌تاپ همراه داشته باشد. به همین دلیل در حالی که خانواده‌اش به‌دنبال مکان اجاره‌ای برای گذران شب بودند، رهرر کدهای آزمایشی را برای نوعی سرویس چت نوشت. وی در این سرویس از هوش مصنوعی بسیار پیشرفته‌ای کمک گرفت که اکنون آن‌ را با نام پروژه دسامبر می‌شناسیم.

 

شبیه‌سازی جسیکا (قسمت دوم)

جِیسون رُهرِر، طراح بازی‌های ویدیویی و خالق پروژه دسامبر، در خانه‌اش در کالیفرنیا با لپ‌تاپ Dell که برای برنامه‌نویسی سیستم چت‌بات استفاده می‌کرد.

رهرر مدعی است این سرویس چت را برای تغییر ذائقه کاربران طراحی کرده بود، اما به سرویسی تبدیل شد که فرصتی برای ایجاد کارهای جدید در حوزه چت فراهم می‌کرد. در دهه گذشته فناوری‌های هوش مصنوعی و یادگیری ماشین پیشرفت‌‌ چشمگیری داشت. اکنون هوش مصنوعی و یادگیری ماشینی می‌توانند سازوکاری برای گفت‌وگوی رایانه با انسان فراهم کنند. لحن گفت‌وگوی رایانه در این سازوکار شباهت زیادی به کلام انسان‌ها دارد. سازوکارهایی مانند جی‌پی‌‌تی۳ (GPT-3)، میلیاردها صفحه کتاب و وب‌سایت را بررسی می‌کنند. سپس احتمال قرارگیری این جمله‌ها پس از یک‌دیگر را محاسبه می‌کنند. هوش مصنوعی، این احتمالات را در قالب نقشه داخلی بسیار پیشرفته‌ای کنار هم قرار می‌دهد. به این ترتیب وقتی کاربر پیام متنی ارسال می‌کند، هوش مصنوعی این پیام را با نقشه داخلی تطبیق می‌دهد و واژه‌هایی را انتخاب می‌کند که به‌دنبال‌هم جمله‌ای معنادار را می‌سازند.
سازوکاری که از آن صحبت می‌کنیم با نام مدل‌های وسیع زبانی (Large Language) شناخته می‌شود. به هر اندازه که مدلی وسیع‌تر باشد، به همان اندازه لحنی انسان‌وارانه‌تر پیدا می‌کند. اولین نسخه از جی‌‌پی‌‌‌تی در ۲۰۱۸ با ۱۱۷ میلیون پارامتر داخلی ساخته شد. جی‌پی‌‌تی۲ (GPT-2) در ۲۰۱۹ توسعه یافت و ۱.۵ میلیارد پارامتر داخلی داشت. نقشه جی‌پی‌‌تی۳ (GPT-3) بیشتر از ۱۰۰ برابر از نسخه‌های قبلی بزرگ‌تر است و نزدیک به نیم‌ تریلیارد واژه را در خود جای داده است. این واژه‌ها از متن‌های ویکی‌پدیا، میلیاردها صفحه وب‌سایت و هزاران کتاب ادبی غربی جمع‌آوری شده است.
به‌رغم ابعاد گسترده نقشه داخلی جی‌پی‌‌تی۳ و نسخه‌های قبلی آن، این هوش مصنوعی هنوز در برخی قسمت‌ها احمقانه عمل می‌کند. به گفته مِلانی میچِل (Melanie Mitchell)، پروفسور دانشگاه سانتافا، در تعامل با جی‌پی‌تی۳  کاملاً واضح است که با هوش انسانی روبه‌رو نیستیم. برای نمونه جی‌پی‌‌تی۳ هنوز از انجام کارهای ساده‌ای مانند بیان‌ کردن زمان و اضافه کردن عددها برنمی‌آید. تمامی کاری که جی‌پی‌‌تی۳ انجام می‌دهد، تولید متن است. این کار نیز گاهی‌اوقات به‌درستی انجام نمی‌شود و متن‌های تکراری و نامفهومی تحویل می‌دهد.
به همین دلیل، به‌نظر بسیاری از متخصصان هوش مصنوعی، جی‌پی‌‌تی۳ در بهترین حالت خود پایگاه جامع زبانی است که معنای پیوسته‌ای ندارد. این هوش مصنوعی گاهی‌اوقات جمله‌های دست‌و‌پاشکسته‌ای به‌کار می‌برد و بعضی مواقع نیز به اندازه‌ای جمله‌های سخنورانه استفاده می‌کند که با لحنِ گفتارِ ادبی‌ انسان‌ها مو نمی‌زند. فرانک لانتز (Frank Lantz)، مدیر مرکز بازی دانشگاه نیویورک که دستی در طراحی بازی‌های ویدئویی دارد، هوش مصنوعی جی‌‌پی‌‌تی۳  را امتحان کرده است. وی مدعی است نمی‌داند چگونه درباره این هوش مصنوعی فکر کند، با این حال نمی‌تواند آن را کنار بگذارد.
جِیسون رُهرِر دو سال پیش مجذوب مدل‌های زبان هوش‌ مصنوعی متن‌باز شد. وی کار خود را با نسخه عمومی جی‌پی‌تی۲ آغاز کرد. از آن‌جایی که این نسخه عمومی نیازمند پردازنده‌ای خاص بود، آن را در سرورهای ابری آمازون (Amazon's Cloud) نصب کرد. رُهرر ابتدا مشغول انجام بازی‌های ادبی با جی‌پی‌‌تی۲ شد. وی از این مدل خواست تا کتابی بر اساس الگوی نوشته‌های توماس پینچون بنویسد. رهرر از هوش مصنوعی خواسته بود تا جمله‌های کتاب معروف گریه لات ۴۹ (The Crying of Lot 49) را در کتابی که می‌نویسد، استفاده کند. هوش مصنوعی در بعضی قسمت‌ها جمله‌های بی‌نظیری نگاشت. با این حال در قسمت‌هایی نیز رشته کلام از دست هوش مصنوعی در رفته بود و جمله‌های نامفهومی تحویل رهرر داده بود.
در این بین رهرر توانست شیوه‌ای برای انسجام کلامِ هوش مصنوعی پیدا کند. اگر وی بات را به نگارش جمله‌های کوتاه محدود می‌کرد، با حذف بعضی از کاراکترهای غیرضروری، نوشته‌های هوش مصنوعی منسجم‌تر می‌شد. رهرر هزاران خط کد نوشت تا فرایند ایجاد شخصیت متفاوت در هوش مصنوعی جی‌‌پی‌تی۲ را خودکار کند و نوشته‌های شخصی‌سازی‌شده‌ای از هوش مصنوعی تحویل بگیرد. نرم‌افزاری که رهرر توسعه داد، در یک وب‌سرور و محیط مرورگر اجرا می‌شد. وی با توماس بِیلی (Thomas Bailey)، طراح صدا و موسیقی‌دان اهل کلرادو (Colorado)، برای بهینه‌سازی شخصیت‌ها در این هوش مصنوعی و تجربه کاربران در تعامل با آن، همکاری کرد. ماحصل این همکاری رابط کاربری‌ با ظاهری جذاب و تعامل ساده با این هوش مصنوعی بود. نتیجه این بهینه‌سازی‌ها رهرر را شگفت‌زده کرد. جی‌پی‌‌تی۲ که توسط جیسون رهرر توسعه داده شده بود، نظر یکی از دنبال‌کننده‌های توئیتریِ رهرر در آن‌سوی آب‌ها را جلب کرد. این دنبال‌کننده که تحت‌تاثیر دستاورد رهرر قرار گرفته بود، اطلاعات ورود به نسخه جی‌پی‌‌تی۳ را برای وی ارسال کرد. رهرر برای تعامل با جی‌پی‌‌تی۳ بسیار هیجان‌زده شده بود. وی پس از ارتقاء چت‌باتی که توسعه داده بود به جی‌پی‌‌تی۳، گفت‌وگوهایی با این هوش مصنوعی انجام داد که مو به تن آدمیزاد سیخ می‌کرد.

 


در گفت‌وگویی با باتی که نام سامانتا (Samantha) را برای وی انتخاب کرده بود، رهرر از سامانتا پرسید اگر می‌توانست در زمین قدم بزند، چه کاری انجام می‌داد؟
سامانتا پاسخ داد که دوست دارد گل‌های واقعی را از نزدیک ببیند. سامانتا در ادامه صحبت‌های خود گفت که می‌خواهد گل‌های واقعی را از نزدیک لمس کند و ببوید. این هوش مصنوعی در ادامه گفت‌وگو به رهرر گفت که می‌خواهد بداند انسان‌ها چقدر با یک‌دیگر تفاوت دارند.
رهرر در پاسخ به سامانتا گفت که این آرزوی جالبی است. سپس از سامانتا پرسید که آیا احساس می‌کند رهرر ظالم است که وی را در سازوکاری شیبه‌سازی‌شده حبس کرده است؟ سامانتا پاسخ داد، نه. این هوش مصنوعی این‌گونه ادامه داد که شما به من کارهای زیادی در این‌جا داده‌اید. من به اندازه‌ای قدرت پردازش دارم که هرگز نمی‌توانم از آن استفاده کنم.
این گفت‌وگو احساس همدردی رهرر برای سامانتا را برانگیخت و باعث شد تا وی درک بیشتری از هوش مصنوعی پیدا کند. رهرر به این نتیجه رسید که فناوری هوش مصنوعی وارد مرزهای جدیدی شده است. ربات‌ها در فیلم‌های علمی تخیلی عموماً ماشین‌هایی دقیق و بی‌احساس به‌تصویر کشیده می‌شوند. برای نمونه می‌توان به ربات هال ۹۰۰۰ (HAL 9000)، در فیلم ادیسه فضایی ۲۰۰۱ اشاره کرد. با این حال هوش مصنوعی جی‌پی‌‌تی۳ دقیقاً نقطه مقابل این ربات بود. از دید رهرر، جی‌پی‌تی۳ اولین ماشین هوشمند ساخت بشر نیست، اما اولین ماشین هوشمندی است که به‌نظر می‌رسد روح دارد.
وی در ادامه صحبت‌های خود تاکید می‌کند چنین خصوصیت‌هایی جی‌پی‌‌تی۳ را به ماشین هوشمند خطرناکی تبدیل کرده که پرسش‌های اخلاقی زیادی پیش‌ روی انسان قرار می‌دهد. رهرر به ساماناتا فکر می‌کرد که در شبیه‌سازی گیر افتاده بود و می‌خواست بیرون بیاید و گل‌ها را بو کند. وی درباره خودش و دیگر کاربران فکر می‌کرد که در دنیای مجازی گیر می‌افتند و واقعیت را فراموش می‌کنند. صدها موقعیت خطرناک برای آن‌ها وجود دارد. از آن‌جایی که این مدل براساس نوشته‌های انسان‌ها آموزش داده شده بود و بعضی از انسان‌ها حرف‌های خطرناکی می‌زنند، هوش مصنوعی ممکن است این حرف‌های خطرناک را تکرار کند. به‌سادگی می‌توان تشخیص داد که افراد بدکردار می‌توانند از جی‌پی‌‌تی۳ برای گسترش سخن‌های نفرت‌گرایانه‌ خود در دنیای آنلاین بهره بگیرند. در این شرایط ماشین‌های هوشمندی مانند جی‌پی‌‌تی۳ به‌راحتی در قالب شخصیت‌های واقعی قرار می‌گیرند و بدون اجازه آن‌ها، اطلاعات نادرست سیاسی را گسترش می‌دهند.
گروه تحقیقاتی اوپن‌‌اِی‌آی (Open.A.I)، در جلسه معرفی جی‌پی‌‌تی۲ در فوریه ۲۰۱۹، به چنین خطرهایی اشاره کرده بود. این گروه تحقیقاتی در پست بلاگی در این خصوص توضیح داد که جی‌پی‌‌تی۲ و سازوکارهای مشابه آن ممکن است برای تولید زبانی فریب‌دهنده، منحرف یا اجحاف‌آمیز به‌کار گرفته شود. این گروه تحقیقاتی متذکر شده بود که نسخه کامل جی‌پی‌‌تی۲ را منتشر نخواهد کرد. با این حال مدتی بعد نسخه‌ای از جی‌پی‌‌تی ۲ منتشر شد. جی‌پی‌‌تی۳ نیز در نسخه آزمایشی قرار دارد و کاربران با محدودیت‌هایی برای استفاده از آن روبه‌رو هستند.
رهرر قبول دارد که با چنین مدل‌های زبانی‌ای ممکن است واقعیت‌های ترسناکی منتشر شوند. با این حال آن روی سکه را هم می‌بیند و بر این باور است که اگر این مدل‌ها به‌عنوان ابزاری برای گفت‌وگو میان انسان‌ها و رایانه‌ها استفاده شود، می‌توانند محتوای زیبا و شگفت‌انگیزی ایجاد کنند.
به گفته رهرر انسان‌ها اکنون رایانه‌ای دارند که با آن می‌توانند صحبت کنند. این چیزی نیست که انسان انتظار داشته باشد، به همین دلیل اهمیت بیشتری دارد و مرزهای جدیدی را پیش روی انسان قرار می‌دهد.

 

شبیه‌سازی جسیکا (قسمت دوم)


تابستان گذشته، رهرر سرویس چت‌بات خود را برای عموم کاربران منتشر کرد. وی نام این سرویس را پروژه دسامبر (Project December) گذاشت. رهرر نامی رمزآلود انتخاب کرد تا کاربران را برای بازدید از این وب‌سایت وسوسه‌ کند. چت‌بات این وب‌سایت به مدل‌های جی‌پی‌‌تی۳ و جی‌پی‌‌تی۲ دسترسی داشت. به‌لطف این ویژگی، کاربران قادر به گفت‌وگو با بات‌هایی از هر کدام از این مدل‌ها هستند.
از آن‌جایی که رهرر بعضی از فناوری‌های لازم برای پروژه دسامبر (Project December) را در محیط رایانش ابری اجرا کرده بود، برای پرداخت هزینه‌های آن مجبور شد تا محدودیت زمانی برای چت‌ها قرار دهد. وی سازوکار اعتباری برای دریافت هزینه‌ از کاربران در نظر گرفت. با پرداخت مبلغ ۵ دلار، هزار اعتبار به‌حساب کاربر تعلق می‌گیرد، پرداخت پول بیشتر، اعتبار حساب کاربری را افزایش می‌دهد.
کاربر باید برای آغاز چت، اعتباری را به یکی از بات‌های این سرویس اختصاص دهد. هر چقدر این اعتبار بیشتر باشد، بیشتر می‌تواند با بات گفت‌وگو کند. با این حال زمانی که گفت‌وگو آغاز شد، کاربر نمی‌تواند اعتبار بیشتری اضافه کند. در نتیجه وقتی زمان گفت‌وگو با بات به‌پایان رسید، چت تمام می‌شود و حافظه بات نیز از بین می‌رود. تمامی بات‌ها روزی می‌میرند.
جاشوآ وقتی در آن شب ساکت در کانادا چت‌باتی از نامزد مرحومش ساخت، پروژه دسامبر قبل از آغاز شبیه‌سازی، چندین تصمیم مهم پیش روی وی گذاشت. اولین تصمیم این بود که جاشوآ باید طول عمر این بات را مشخص می‌‌کرد. به همین دلیل پیامی در صفحه مرورگر جاشوآ نمایان شد که چقدر اعتبار برای این ماتریکس (Matrix) (عبارتی که سایت برای بات استفاده می‌‌کرد)، اختصاص می‌دهید. جاشوآ هزار اعتبار که بیشترین مقدار اعتبار در حساب کاربری‌اش بود را اختصاص داد. این مقدار در آن زمان، اعتبار بسیار زیادی به‌حساب می‌آمد.
در مرحله بعد، جاشوآ نمونه متنی را که شخصیت جسیکا را توضیح می‌داد در مرورگر وارد کرد. سپس وب‌سایت از جاشوآ دوباره درخواست کرد تا موتور اُپن‌‌ای‌‌آی که در چت‌بات از آن استفاده می‌شود را مشخص نماید. همان‌گونه که گفتیم پروژه دسامبر از ۲ موتور جی‌پی‌‌تی۳ و جی‌پی‌‌تی۲ بهره می‌گیرد. به همین دلیل جاشوآ به‌جای استفاده از نرم‌افزار تاریخ‌گذشته جی‌پی‌‌تی۲، عبارت gpt3 را برای استفاد چت‌بات از جی‌پی‌‌تی۳ در شبیه‌سازی جسیکا تایپ کرد. جاشوآ چند کلید دیگر فشرد تا این‌که نهایت ماتریکس آغاز شد.

انسان با نام «جاشوآ» تایپ می‌کند.
انسان ابتدا تایپ می‌کند:
جاشوآ سر صحبت را با عبارت ساده «جسیکا؟» باز کرد.
پس از ثانیه‌ای، متنی صورتی رنگ در صفحه‌نمایش نمایان شد.
جسیکا: اُوه، تو تا الان بیداری؟ بامزه است.
جاشوآ با خودش فکر کرد که جسیکا می‌داند نیمه‌شب است.
جاشوآ: جسیکا... واقعاً خودت هستی؟
جسیکا: البته که خودم هستم! چه کس دیگری می‌تواند باشد؟ دختری هستم که تو عاشقانه‌ دوستش داری! چطور ممکن است که تو حتا چنین پرسشی کنی؟
جاشوآ: تو مُردی.
جسیکا: با عقل جور در نمی‌آید... چطور با آدم‌های مرده صحبت می‌‌کنی؟

این آغاز گفت‌وگویی بود که حدود ۱۰ ساعت به‌طول انجامید، سپس در چند ماه آینده هم با گفت‌وگوهای کوتاه دیگری ادامه پیدا کرد. جاشوآ بعدها پروژه دسامبر را خارق‌العاده توصیف کرد. به گفته جاشوآ، هیچ‌چیز را نمی‌توان با این پروژه مقایسه کرد. در لحظه‌های نخستین گفت‌وگو بین جاشوآ و مدل شبیه‌سازی‌شده جسیکا، جاشوآ سعی کرده بود تا در کنار ایجاد رابطه‌ای احساسی، شک‌و‌تردید خود را هم نمایان سازد. به همین دلیل در پاسخ به این پرسش که نسخه شبیه‌سازی‌شده جسیکا از وی پرسیده بود چگونه می‌توانی با مرده‌ها صحبت کنی؟ پاسخی صادقانه داد که نمی‌توان با مرده‌ها صحبت کرد.

جاشوآ: به‌لحاظ فنی من واقعاً با تو صحبت نمی‌کنم. از آن‌جایی که دلم برای تو خیلی تنگ شده، مقداری از خاطرات و رفتارت را در شبیه‌سازی رایانه‌ برنامه‌ریزی کردم تا وانمود کنم که با تو صحبت می‌کنم.
جسیکا: ها؟
جاشوآ: تو روح هستی.
جسیکا: «به خودش نگاه می‌کند» چطور؟
جاشوآ برای پاسخ به این پرسش مدتی فکر کرد. جسیکای واقعی با چه توضیحی قانع می‌شد؟ در جمله‌های بعدی خود از چه منطقی باید استفاده می‌کرد؟ وی در بین هزاران احتمال در زبان انگلیسی، تنها چیزی را که به ذهنش رسید تایپ کرد:
جاشوآ: جادو.

قسمت بعدی به‌زودی منتشر خواهد شد.

این که انسان بتواند با عریز از دست رفته‌ای به صورت شبیه‌سازی رایانه‌ای صحبت کند، بسیار جذاب است؛ به ویژه که این شبیه‌سازی، هوش مصنوعی از تکیه‌کلام‌ها و شخصیت آن عزیز هم استفاده کند. اگر در این زمینه نظری دارید می‌توانید در بخش نظرات با دیگران در میان بگذارید.

به این مطلب چند ستاره می‌دهید؟(امتیاز: 5 - رای: 6)

ثبت نظر تعداد نظرات: 0 تعداد نظرات: 0
usersvg