افراد مشهور بسیاری داریم که به اظهارنظر های اغراق آمیز در رابطه با هوش مصنوعی شهره هستند. در سال ۲۰۱۴، ایلان ماسک – مدیرعامل Tesla Motors و SpaceX- تحقیقات گسترده حوزه هوش مصنوعی را با احضار شیطان مقایسه کرد و بدافزار HAL 9000  از 2001: A Space Odyssey را یک چیز حقیر در مقایسه با هوش مصنوعی آینده دانست. همان سال بود که استیون هاوکینگ -فیزیکدان پرآوازه- توسعه هوش مصنوعی را بزرگترین اشتباه تاریخ بشر دانست.

ولی مارک ریدل که محقق هوش مصنوعی از موسسه تکنولوژی جورجیا است، به این اندازه نگران نیست. 

من فکر نمی‌کنم به نقطه‌ای برسیم که هوش مصنوعی به تهدید بزرگی برای ما تبدیل شود. من به سناریوهای تکینگی که معتقدند هوش مصنوعی توسعه می‌یابد و در نهایت تصمیم می‌گیرد که ما برای آن‌ها بد هستیم، اعتقادی ندارم. 

شرایط فعلی هوش مصنوعی به هیچ وجه حتی نزدیک به جایگاهی نیست که ایلان ماسک، هاوکینگ و ترمیناتور۲ راجع به آن هشدار می‌دهند. با این حال پیشرفت‌هایی نیز در این زمینه صورت گرفته است. برای مثال ماشین‌های خودران را در نظر بگیرید. مسئله اینجاست که این ماشین‌ها در هنگام انتقال ما از نقطه‌ای به نقطه‌ای دیگر طبق کدام ارزش‌ها عمل کنند تا آسیبی به ما وارد نشود؟

ریدل بهترین پیشنهادی که برای انتقال ارزش‌‌های انسانی به روبات‌ها دارد، مطالعه داستان‌هایی است که ارزش‌های انسانی را در قلب خود دارند. تئوری این است که اگر هوش مصنوعی روزی قادر به مطالعه کتاب مقدس باشد می‌تواند ارزش‌های انسانی را بداند و فرق میان شیطانی و الهی را درک کند.

ریدل تاکید می‌کند که هوش مصنوعی به این دلیل که خطرناک است به ما آسیبی نمی‌رساند بلکه آسیب آن از آن جهت به ما می‌رسد که نمی‌داند خطر چیست. ما باید فرهنگ و ارزش‌ها را به هوش مصنوعی منتقل کنیم.

مسئله اینجاست که ما لیست بزرگی از رفتارهای درست و غلط نداریم. در عوض داستان‌های فراوانی داریم که مثال‌های زیادی از مردان و زنان خوب و بد دارند. ما یک دستورالعمل مشخص برای فرهنگ انسانی نداریم، بلکه مجموعه‌ای از اثار افرادی را داریم که ارزش‌ها و باورهایشان را به نمایش می‌گذارند. 

ریدل و همکار او برنت هاریسون این روش را در مقاله‌ای با عنوان استفاده از داستان‌ برای آموزش ارزش‌های انسانی به هوش مصنوعی تشریح کرده‌اند. تحقیقات آن‌ها بر پایه پروژه‌ی قدیمی‌تری به نام Scheherazade بنا شده است، هوش مصنوعی که قادر است با مطالعه داستان‌های علمی تخیلی، داستان‌های جدیدی را روایت کند. آن‌ها با استفاده از این روش، هوش مصنوعی جدیدی به نام Quixote ساخته‌اند که می‌تواند به یک هوش مصنوعی بهترین روش انجام کار را بیاموزد.

بعنوان مثال دریافت دارو از داروخانه را در نظر بگیرید. اگر روباتی داشته باشید که برپایه معیارهای کارایی بالاتر عمل کند، ممکن است برای دریافت دارو به داخل داروخانه برود و داروها را بدزدد. این به معنای آن نیست که هوش مصنوعی شیطانی و وحشتناک است، او فقط نمی‌داند که نحوه صحیح دریافت دارو چگونه است. این‌ها رفتارهایی است که افراد با زندگی در جامعه، دنبال کردن رفتارهای اجتماعی و تقلید رفتار دیگران میاموزند. 

این هوش مصنوعی به خاطر تقلید رفتارهای انسانی تشویق می‌شود و در صورت خطور از آن‌ها تنبیه خواهد شد.  

اینجاست که سوال مهم و بعدی مطرح می‌شود. با توجه به اینکه تمامی داستان‌ها و راویان ما قدرت تشخیص خوب از بد را نداشته اند، چه داستان‌ها و کتاب‌هایی برای معرفی به هوش مصنوعی باید انتخاب شوند؟‌ برای مثال رابین هود داستان جذابی است ولی جنایت زیادی در آن اتفاق میافتد و یا اینکه کتاب مقدس برای دنیای امروز کافی نیست. 

این سوال بیشتر یک سوال سیاسی است و شاید روزی کمیته‌های خاصی برای تعیین آن مشخص شوند. ولی امروز با توجه به توسعه بزرگ‌داده (Big Data) بهتر است همه محتوای یک فرهنگ و تمامی کتاب‌هایش از تخیلی و عاشقانه گرفته تا مذهبی و سیاسی وارد ذهن هوش مصنوعی شوند. چراکه هرقدر تعداد مثال ها بیشتر باشد رسیدن به یک رفتار میانه منطقی راحت‌تر خواهد بود.

فوق‌العاده می‌شد اگر می‌توانستیم به هوش مصنوعی بیاموزیم بهتر از ما عمل کند ولی این چیزی نیست که بتوان با کدنویسی به آن رسید. حتی Isaac Asimov هم زمانی که در سال ۱۹۴۲ قوانین سه گانه روباتیک را وضع کرد به این شهود رسیده بود. حال به دنبال روباتی هستیم که باندازه خودمان خوب باشد، با امید به اینکه باندازه کافی خوب هستیم.