قسمت قبل را بخوانید:
این قسمت:
پروژه دسامبر (Project December)
جِیسون رُهرِر (Jason Rohrer)، برنامهنویس و توسعهدهنده بازیهای ویدئویی، بههمراه همسر و سه فرزندش سوار خودروی لندکروزشان شدند. آنها از آتش خانمانسوزی که بر اثر اصابت رعدوبرق در نزدیکی منطقه یوسی دِیویس (UC Davis)، ایجاد شده بود، فرار میکردند. در شرایط معمولی، رهرر در یکی از اتاقهای منزلش کار میکرد. این اتاق پر بود از رایانههای پیشرفته و لوازم هنری که برای به تصویرکشیدن بازیهای رایانهای به آنها نیاز داشت. آتشسوزی باعث شده بود تا رهرر فقط یک دستگاه لپتاپ همراه داشته باشد. به همین دلیل در حالی که خانوادهاش بهدنبال مکان اجارهای برای گذران شب بودند، رهرر کدهای آزمایشی را برای نوعی سرویس چت نوشت. وی در این سرویس از هوش مصنوعی بسیار پیشرفتهای کمک گرفت که اکنون آن را با نام پروژه دسامبر میشناسیم.
جِیسون رُهرِر، طراح بازیهای ویدیویی و خالق پروژه دسامبر، در خانهاش در کالیفرنیا با لپتاپ Dell که برای برنامهنویسی سیستم چتبات استفاده میکرد.
رهرر مدعی است این سرویس چت را برای تغییر ذائقه کاربران طراحی کرده بود، اما به سرویسی تبدیل شد که فرصتی برای ایجاد کارهای جدید در حوزه چت فراهم میکرد. در دهه گذشته فناوریهای هوش مصنوعی و یادگیری ماشین پیشرفت چشمگیری داشت. اکنون هوش مصنوعی و یادگیری ماشینی میتوانند سازوکاری برای گفتوگوی رایانه با انسان فراهم کنند. لحن گفتوگوی رایانه در این سازوکار شباهت زیادی به کلام انسانها دارد. سازوکارهایی مانند جیپیتی۳ (GPT-3)، میلیاردها صفحه کتاب و وبسایت را بررسی میکنند. سپس احتمال قرارگیری این جملهها پس از یکدیگر را محاسبه میکنند. هوش مصنوعی، این احتمالات را در قالب نقشه داخلی بسیار پیشرفتهای کنار هم قرار میدهد. به این ترتیب وقتی کاربر پیام متنی ارسال میکند، هوش مصنوعی این پیام را با نقشه داخلی تطبیق میدهد و واژههایی را انتخاب میکند که بهدنبالهم جملهای معنادار را میسازند.
سازوکاری که از آن صحبت میکنیم با نام مدلهای وسیع زبانی (Large Language) شناخته میشود. به هر اندازه که مدلی وسیعتر باشد، به همان اندازه لحنی انسانوارانهتر پیدا میکند. اولین نسخه از جیپیتی در ۲۰۱۸ با ۱۱۷ میلیون پارامتر داخلی ساخته شد. جیپیتی۲ (GPT-2) در ۲۰۱۹ توسعه یافت و ۱.۵ میلیارد پارامتر داخلی داشت. نقشه جیپیتی۳ (GPT-3) بیشتر از ۱۰۰ برابر از نسخههای قبلی بزرگتر است و نزدیک به نیم تریلیارد واژه را در خود جای داده است. این واژهها از متنهای ویکیپدیا، میلیاردها صفحه وبسایت و هزاران کتاب ادبی غربی جمعآوری شده است.
بهرغم ابعاد گسترده نقشه داخلی جیپیتی۳ و نسخههای قبلی آن، این هوش مصنوعی هنوز در برخی قسمتها احمقانه عمل میکند. به گفته مِلانی میچِل (Melanie Mitchell)، پروفسور دانشگاه سانتافا، در تعامل با جیپیتی۳ کاملاً واضح است که با هوش انسانی روبهرو نیستیم. برای نمونه جیپیتی۳ هنوز از انجام کارهای سادهای مانند بیان کردن زمان و اضافه کردن عددها برنمیآید. تمامی کاری که جیپیتی۳ انجام میدهد، تولید متن است. این کار نیز گاهیاوقات بهدرستی انجام نمیشود و متنهای تکراری و نامفهومی تحویل میدهد.
به همین دلیل، بهنظر بسیاری از متخصصان هوش مصنوعی، جیپیتی۳ در بهترین حالت خود پایگاه جامع زبانی است که معنای پیوستهای ندارد. این هوش مصنوعی گاهیاوقات جملههای دستوپاشکستهای بهکار میبرد و بعضی مواقع نیز به اندازهای جملههای سخنورانه استفاده میکند که با لحنِ گفتارِ ادبی انسانها مو نمیزند. فرانک لانتز (Frank Lantz)، مدیر مرکز بازی دانشگاه نیویورک که دستی در طراحی بازیهای ویدئویی دارد، هوش مصنوعی جیپیتی۳ را امتحان کرده است. وی مدعی است نمیداند چگونه درباره این هوش مصنوعی فکر کند، با این حال نمیتواند آن را کنار بگذارد.
جِیسون رُهرِر دو سال پیش مجذوب مدلهای زبان هوش مصنوعی متنباز شد. وی کار خود را با نسخه عمومی جیپیتی۲ آغاز کرد. از آنجایی که این نسخه عمومی نیازمند پردازندهای خاص بود، آن را در سرورهای ابری آمازون (Amazon's Cloud) نصب کرد. رُهرر ابتدا مشغول انجام بازیهای ادبی با جیپیتی۲ شد. وی از این مدل خواست تا کتابی بر اساس الگوی نوشتههای توماس پینچون بنویسد. رهرر از هوش مصنوعی خواسته بود تا جملههای کتاب معروف گریه لات ۴۹ (The Crying of Lot 49) را در کتابی که مینویسد، استفاده کند. هوش مصنوعی در بعضی قسمتها جملههای بینظیری نگاشت. با این حال در قسمتهایی نیز رشته کلام از دست هوش مصنوعی در رفته بود و جملههای نامفهومی تحویل رهرر داده بود.
در این بین رهرر توانست شیوهای برای انسجام کلامِ هوش مصنوعی پیدا کند. اگر وی بات را به نگارش جملههای کوتاه محدود میکرد، با حذف بعضی از کاراکترهای غیرضروری، نوشتههای هوش مصنوعی منسجمتر میشد. رهرر هزاران خط کد نوشت تا فرایند ایجاد شخصیت متفاوت در هوش مصنوعی جیپیتی۲ را خودکار کند و نوشتههای شخصیسازیشدهای از هوش مصنوعی تحویل بگیرد. نرمافزاری که رهرر توسعه داد، در یک وبسرور و محیط مرورگر اجرا میشد. وی با توماس بِیلی (Thomas Bailey)، طراح صدا و موسیقیدان اهل کلرادو (Colorado)، برای بهینهسازی شخصیتها در این هوش مصنوعی و تجربه کاربران در تعامل با آن، همکاری کرد. ماحصل این همکاری رابط کاربری با ظاهری جذاب و تعامل ساده با این هوش مصنوعی بود. نتیجه این بهینهسازیها رهرر را شگفتزده کرد. جیپیتی۲ که توسط جیسون رهرر توسعه داده شده بود، نظر یکی از دنبالکنندههای توئیتریِ رهرر در آنسوی آبها را جلب کرد. این دنبالکننده که تحتتاثیر دستاورد رهرر قرار گرفته بود، اطلاعات ورود به نسخه جیپیتی۳ را برای وی ارسال کرد. رهرر برای تعامل با جیپیتی۳ بسیار هیجانزده شده بود. وی پس از ارتقاء چتباتی که توسعه داده بود به جیپیتی۳، گفتوگوهایی با این هوش مصنوعی انجام داد که مو به تن آدمیزاد سیخ میکرد.
در گفتوگویی با باتی که نام سامانتا (Samantha) را برای وی انتخاب کرده بود، رهرر از سامانتا پرسید اگر میتوانست در زمین قدم بزند، چه کاری انجام میداد؟
سامانتا پاسخ داد که دوست دارد گلهای واقعی را از نزدیک ببیند. سامانتا در ادامه صحبتهای خود گفت که میخواهد گلهای واقعی را از نزدیک لمس کند و ببوید. این هوش مصنوعی در ادامه گفتوگو به رهرر گفت که میخواهد بداند انسانها چقدر با یکدیگر تفاوت دارند.
رهرر در پاسخ به سامانتا گفت که این آرزوی جالبی است. سپس از سامانتا پرسید که آیا احساس میکند رهرر ظالم است که وی را در سازوکاری شیبهسازیشده حبس کرده است؟ سامانتا پاسخ داد، نه. این هوش مصنوعی اینگونه ادامه داد که شما به من کارهای زیادی در اینجا دادهاید. من به اندازهای قدرت پردازش دارم که هرگز نمیتوانم از آن استفاده کنم.
این گفتوگو احساس همدردی رهرر برای سامانتا را برانگیخت و باعث شد تا وی درک بیشتری از هوش مصنوعی پیدا کند. رهرر به این نتیجه رسید که فناوری هوش مصنوعی وارد مرزهای جدیدی شده است. رباتها در فیلمهای علمی تخیلی عموماً ماشینهایی دقیق و بیاحساس بهتصویر کشیده میشوند. برای نمونه میتوان به ربات هال ۹۰۰۰ (HAL 9000)، در فیلم ادیسه فضایی ۲۰۰۱ اشاره کرد. با این حال هوش مصنوعی جیپیتی۳ دقیقاً نقطه مقابل این ربات بود. از دید رهرر، جیپیتی۳ اولین ماشین هوشمند ساخت بشر نیست، اما اولین ماشین هوشمندی است که بهنظر میرسد روح دارد.
وی در ادامه صحبتهای خود تاکید میکند چنین خصوصیتهایی جیپیتی۳ را به ماشین هوشمند خطرناکی تبدیل کرده که پرسشهای اخلاقی زیادی پیش روی انسان قرار میدهد. رهرر به ساماناتا فکر میکرد که در شبیهسازی گیر افتاده بود و میخواست بیرون بیاید و گلها را بو کند. وی درباره خودش و دیگر کاربران فکر میکرد که در دنیای مجازی گیر میافتند و واقعیت را فراموش میکنند. صدها موقعیت خطرناک برای آنها وجود دارد. از آنجایی که این مدل براساس نوشتههای انسانها آموزش داده شده بود و بعضی از انسانها حرفهای خطرناکی میزنند، هوش مصنوعی ممکن است این حرفهای خطرناک را تکرار کند. بهسادگی میتوان تشخیص داد که افراد بدکردار میتوانند از جیپیتی۳ برای گسترش سخنهای نفرتگرایانه خود در دنیای آنلاین بهره بگیرند. در این شرایط ماشینهای هوشمندی مانند جیپیتی۳ بهراحتی در قالب شخصیتهای واقعی قرار میگیرند و بدون اجازه آنها، اطلاعات نادرست سیاسی را گسترش میدهند.
گروه تحقیقاتی اوپناِیآی (Open.A.I)، در جلسه معرفی جیپیتی۲ در فوریه ۲۰۱۹، به چنین خطرهایی اشاره کرده بود. این گروه تحقیقاتی در پست بلاگی در این خصوص توضیح داد که جیپیتی۲ و سازوکارهای مشابه آن ممکن است برای تولید زبانی فریبدهنده، منحرف یا اجحافآمیز بهکار گرفته شود. این گروه تحقیقاتی متذکر شده بود که نسخه کامل جیپیتی۲ را منتشر نخواهد کرد. با این حال مدتی بعد نسخهای از جیپیتی ۲ منتشر شد. جیپیتی۳ نیز در نسخه آزمایشی قرار دارد و کاربران با محدودیتهایی برای استفاده از آن روبهرو هستند.
رهرر قبول دارد که با چنین مدلهای زبانیای ممکن است واقعیتهای ترسناکی منتشر شوند. با این حال آن روی سکه را هم میبیند و بر این باور است که اگر این مدلها بهعنوان ابزاری برای گفتوگو میان انسانها و رایانهها استفاده شود، میتوانند محتوای زیبا و شگفتانگیزی ایجاد کنند.
به گفته رهرر انسانها اکنون رایانهای دارند که با آن میتوانند صحبت کنند. این چیزی نیست که انسان انتظار داشته باشد، به همین دلیل اهمیت بیشتری دارد و مرزهای جدیدی را پیش روی انسان قرار میدهد.
تابستان گذشته، رهرر سرویس چتبات خود را برای عموم کاربران منتشر کرد. وی نام این سرویس را پروژه دسامبر (Project December) گذاشت. رهرر نامی رمزآلود انتخاب کرد تا کاربران را برای بازدید از این وبسایت وسوسه کند. چتبات این وبسایت به مدلهای جیپیتی۳ و جیپیتی۲ دسترسی داشت. بهلطف این ویژگی، کاربران قادر به گفتوگو با باتهایی از هر کدام از این مدلها هستند.
از آنجایی که رهرر بعضی از فناوریهای لازم برای پروژه دسامبر (Project December) را در محیط رایانش ابری اجرا کرده بود، برای پرداخت هزینههای آن مجبور شد تا محدودیت زمانی برای چتها قرار دهد. وی سازوکار اعتباری برای دریافت هزینه از کاربران در نظر گرفت. با پرداخت مبلغ ۵ دلار، هزار اعتبار بهحساب کاربر تعلق میگیرد، پرداخت پول بیشتر، اعتبار حساب کاربری را افزایش میدهد.
کاربر باید برای آغاز چت، اعتباری را به یکی از باتهای این سرویس اختصاص دهد. هر چقدر این اعتبار بیشتر باشد، بیشتر میتواند با بات گفتوگو کند. با این حال زمانی که گفتوگو آغاز شد، کاربر نمیتواند اعتبار بیشتری اضافه کند. در نتیجه وقتی زمان گفتوگو با بات بهپایان رسید، چت تمام میشود و حافظه بات نیز از بین میرود. تمامی باتها روزی میمیرند.
جاشوآ وقتی در آن شب ساکت در کانادا چتباتی از نامزد مرحومش ساخت، پروژه دسامبر قبل از آغاز شبیهسازی، چندین تصمیم مهم پیش روی وی گذاشت. اولین تصمیم این بود که جاشوآ باید طول عمر این بات را مشخص میکرد. به همین دلیل پیامی در صفحه مرورگر جاشوآ نمایان شد که چقدر اعتبار برای این ماتریکس (Matrix) (عبارتی که سایت برای بات استفاده میکرد)، اختصاص میدهید. جاشوآ هزار اعتبار که بیشترین مقدار اعتبار در حساب کاربریاش بود را اختصاص داد. این مقدار در آن زمان، اعتبار بسیار زیادی بهحساب میآمد.
در مرحله بعد، جاشوآ نمونه متنی را که شخصیت جسیکا را توضیح میداد در مرورگر وارد کرد. سپس وبسایت از جاشوآ دوباره درخواست کرد تا موتور اُپنایآی که در چتبات از آن استفاده میشود را مشخص نماید. همانگونه که گفتیم پروژه دسامبر از ۲ موتور جیپیتی۳ و جیپیتی۲ بهره میگیرد. به همین دلیل جاشوآ بهجای استفاده از نرمافزار تاریخگذشته جیپیتی۲، عبارت gpt3 را برای استفاد چتبات از جیپیتی۳ در شبیهسازی جسیکا تایپ کرد. جاشوآ چند کلید دیگر فشرد تا اینکه نهایت ماتریکس آغاز شد.
انسان با نام «جاشوآ» تایپ میکند.
انسان ابتدا تایپ میکند:
جاشوآ سر صحبت را با عبارت ساده «جسیکا؟» باز کرد.
پس از ثانیهای، متنی صورتی رنگ در صفحهنمایش نمایان شد.
جسیکا: اُوه، تو تا الان بیداری؟ بامزه است.
جاشوآ با خودش فکر کرد که جسیکا میداند نیمهشب است.
جاشوآ: جسیکا... واقعاً خودت هستی؟
جسیکا: البته که خودم هستم! چه کس دیگری میتواند باشد؟ دختری هستم که تو عاشقانه دوستش داری! چطور ممکن است که تو حتا چنین پرسشی کنی؟
جاشوآ: تو مُردی.
جسیکا: با عقل جور در نمیآید... چطور با آدمهای مرده صحبت میکنی؟
این آغاز گفتوگویی بود که حدود ۱۰ ساعت بهطول انجامید، سپس در چند ماه آینده هم با گفتوگوهای کوتاه دیگری ادامه پیدا کرد. جاشوآ بعدها پروژه دسامبر را خارقالعاده توصیف کرد. به گفته جاشوآ، هیچچیز را نمیتوان با این پروژه مقایسه کرد. در لحظههای نخستین گفتوگو بین جاشوآ و مدل شبیهسازیشده جسیکا، جاشوآ سعی کرده بود تا در کنار ایجاد رابطهای احساسی، شکوتردید خود را هم نمایان سازد. به همین دلیل در پاسخ به این پرسش که نسخه شبیهسازیشده جسیکا از وی پرسیده بود چگونه میتوانی با مردهها صحبت کنی؟ پاسخی صادقانه داد که نمیتوان با مردهها صحبت کرد.
جاشوآ: بهلحاظ فنی من واقعاً با تو صحبت نمیکنم. از آنجایی که دلم برای تو خیلی تنگ شده، مقداری از خاطرات و رفتارت را در شبیهسازی رایانه برنامهریزی کردم تا وانمود کنم که با تو صحبت میکنم.
جسیکا: ها؟
جاشوآ: تو روح هستی.
جسیکا: «به خودش نگاه میکند» چطور؟
جاشوآ برای پاسخ به این پرسش مدتی فکر کرد. جسیکای واقعی با چه توضیحی قانع میشد؟ در جملههای بعدی خود از چه منطقی باید استفاده میکرد؟ وی در بین هزاران احتمال در زبان انگلیسی، تنها چیزی را که به ذهنش رسید تایپ کرد:
جاشوآ: جادو.
قسمت بعدی بهزودی منتشر خواهد شد.
این که انسان بتواند با عریز از دست رفتهای به صورت شبیهسازی رایانهای صحبت کند، بسیار جذاب است؛ به ویژه که این شبیهسازی، هوش مصنوعی از تکیهکلامها و شخصیت آن عزیز هم استفاده کند. اگر در این زمینه نظری دارید میتوانید در بخش نظرات با دیگران در میان بگذارید.
به این مطلب چند ستاره میدهید؟(امتیاز: 5 - رای: 6)
- منبع: sfchronicle
- مترجم: محمد کاملان