کامپیوتر هم می تواند احساس داشته باشد

در اواخر دهه ۱۹۶۰ مشخص شد که نزدیک شدن به نوعی از شعور انسانی حتی در حد عقل یک کودک برای کامپیوتر، نیازمند شبکه‌های بسیار پیچیده و بافته از معادلات منطقی یا ارتباطات عصبی خواهد بود.

کامپیوتر و احساسات؛ گفتگو با ماروین مینسکی

ماروین مینسکی (Marvin Minsky)

برای نخستین بار، در سال ۱۹۵۶ جان مک‌کارتی۱ یکی از اساتید ریاضیات دانشگاه Dartmouth در قالب پروژه تحقیقاتی تابستانه دانشگاه، نتایج گردآوری شده‌ای را در ارتباط با هوش مصنوعی منتشر ساخت. پیشرفت‌های حاصل شده در زمینه ریاضیات و فلسفه که توسط افرادی مانند آلن تورینگ۲، جان فن نویمن۳، هربرت سایمون۴، آلن نیوئل۵ و دیگر بزرگان علوم کامپیوتر حاصل شده است، دهه ۱۹۵۰ را به دوره‌ای سرشار از خوش‌بینی درباره هوش ماشینی مبدل نموده بود. در آن دوره محققان به این باور رسیده بودند که به زودی قادر خواهند بود کامپیوترها را به نحوی برنامه‌ریزی کنند که شکل‌های مختلف شعور و منطق انسانی را شبیه‌سازی کنند. سیستم‌های خبره، اطلاعات را با مهارت تمام به شکل منطق نمادین درخواهند آورد و شبکه‌های عصبی مصنوعی برای به‌دست‌آوردن پاسخ‌های صحیح، تربیت خواهند شد. این فلسفه خوش‌بینی حتی در فرهنگ عامه مردم نیز رسوخ نمود و ‌HAL کامپیوتر هوشمند (و البته بسیار آشفته) در فیلم <اودیسه فضایی: ۲۰۰۱> ساخته استنلی کوبریک در سال ۱۹۶۸ به هنرپیشگان انسانی فخرفروشی می‌نمود.
با این‌حال در اواخر دهه ۱۹۶۰ مشخص شد که نزدیک شدن به نوعی از شعور انسانی حتی در حد عقل یک کودک برای کامپیوتر، نیازمند شبکه‌های بسیار پیچیده و بافته از معادلات منطقی یا ارتباطات عصبی خواهد بود. در این مقطع محققان تصمیم گرفتند در ساختار پژوهش‌های خود تجدید نظر نمایند. آنان با تقسیم مشکلات به قسمت‌های کوچک‌تر، روی نسخه‌برداری از اعمال ساده انسانی مانند جابه‌جا کردن اسباب‌بازی توسط کودک (موضوع پروژه مشهور SHRDLU که طی آن‌ تری وینوگراد، دانشمند علوم کامپیوتر دانشگاه استانفورد، جهت ساخت یک بازوی روباتیک از زبان طبیعی یا Natural Language استفاده نموده است) تمرکز نمودند.
در ماه جولای گذشته ماروین مینسکی۶، مظهر دانشگاه MIT و یکی از همکاران مک‌کارتی در پروژه سال ۱۹۵۶، همراه با دانشمندان طراز اول سرتاسر جهان طی کنفرانسی در دانشگاه Dartmouth گرد هم آمدند و پنجاهمین سالگرد ابداع هوش مصنوعی را جشن گرفتند.
مینسکی به همراه مک‌کارتی کنفرانس Dartmouth را افتتاح کرد و کار وینوگراد را تحسین نمود. با این‌وجود وی در راستای کشف مکانیزم‌های حقیقیِ  موجود در ورای منطق انسانی، از هرگونه ساده‌‌انگاری در ارائه دستاوردها به شدت پرهیز می‌کند. مینسکی در دهه ۱۹۷۰ میلادی همکاری خود را با Seymour Papert در آزمایشگاه هوش مصنوعی MIT آغاز نمود و در آنجا سنگ بنای نظریه جامعه ذهن ‌(Society of Mind) را بنا نهاد. این فرضیه ادعا می‌کند لایه‌هایی از <عوامل> با اراده، و در عین حال فاقد شعور به اتفاق هم هوشیاری و آگاهی را ایجاد می‌نمایند.
آخرین کتاب مینسکی اخیراً تحت عنوان The Emotion Machine منتشر شده‌است. در این کتاب مینسکی ضمن بازتعریف ذهن انسان به عنوان <توده‌ای از منابع>، از آن به عنوان ماشین کوچکی تعبیر کرده است که بنا بر موقعیت، خاموش و روشن می‌شود و باعث برانگیخته شدن احساسات و حالات روحی متفاوت در انسان می‌گردد. پایگاه اینترنتی Technoligy Review به مناسبت پنجاه‌سالگی هوش مصنوعی با مینسکی گفت‌وگویی انجام داده است که ترجمه آن را پیش‌رو دارید.
آیا می‌توانید باور کنید که از برگزاری اولین جلسه هوش مصنوعی در Dartmouth پنجاه سال گذشته باشد؟ آیا گذشت پنج دهه را احساس می‌کنید؟
من در خلال این پنجاه سال وقفه‌های زمانی زیادی را تجربه نکردم. بنابراین پاسخ به این سؤال برایم مشکل است.
کاملاً صحیح است. با این‌حال نظر شما در مورد وضعیت  کنونی تحقیقات در زمینه هوش مصنوعی در مقایسه با آنچه که در ۱۹۵۶ بود، چیست؟
آنچه مورد شگفتی من گردیده این است که چگونه افراد معدودی روی تئوری‌های سطح بالا در مورد نحوه تفکر کار می‌کنند. این مسئله باعث یأس و ناامیدی بسیار بزرگی است. من در حال انتشار کتاب بزرگ و جدیدی در مورد آنچه که ما باید به آن بیندیشیم، هستم. چیزهایی مانند: چگونه یک کودک سه یا چهار ساله  دارای استدلا‌ل مبتنی بر عقل سلیم است. اما به نظر نمی‌رسد هیچ ماشینی بتواند اینگونه عمل نماید. تفاوت اصلی در اینجا این است که اگر شما در فهم چیزی مشکلی داشته باشید، معمولاً با خود می‌گویید: <چه مشکلی برایم پیش آمده ؟> یا <چه عاملی وقت مرا گرفته است؟> یا این‌که <چرا به این شکل فکر کردن نتیجه نمی‌دهد؟ آیا راه دیگری برای تفکر وجود دارد که احتمالاً بهتر باشد؟>
اما اغلب پروژه‌های هوش مصنوعی که در سی چهل سال گذشته روی آن‌ها کار شده است، شامل هیچ‌گونه تفکر انعکاسی (Reflective Thinking) نیستند. تمام این آزمایش‌ها در وضعیت‌های ثابتی صورت پذیرفته و نتیجه آن‌ها نیز فقط جمع‌آوری آمار و اطلاعات بوده است. حدود سه سال پیش ما کنفرانسی درباره ماهیت عرف ‌(Common sence) ترتیب دادیم و در سرتاسر جهان تنها توانستیم یک دوجین از محققان را پیدا کنیم که به موضوع علاقمند باشند.
چرا مردم از مسئله Common sence گریزانند؟
من فکر می‌کنم مردم به دنبال موضوعاتی می‌گردند که در حال حاضر محبوبیت داشته باشند. آن‌گاه عمر و وقت خود را روی آن صرف می‌نمایند. البته به نظر من اگر موضوعی نزد دیگران محبوب باشد، دیگر نیازی نیست که شما روی آن کار کنید. درباره فیزیک قضیه فرق می‌کند. در این حیطه مردم عقیده دارند: <این تئوری خیلی خوب است، اما درباره این یا آن موضوع صادق نیست. بنابراین بهتر است نگاهی به آن بیندازم.> اما زمانی که راجع به هوش مصنوعی تحقیقی انجام می‌دهند، تنها توضیحی که ارائه می‌شود این است که برنامه آنان چه کاری را انجام می‌دهد، اما هیچ‌گونه مطلبی درباره شرایط شکست برنامه یا انواع مشکلاتی که این برنامه می‌تواند حل نماید بیان نمی‌کنند.
مردم به مشکلات مهمی که سیستم آن‌ها قادر به حل آن‌ها نشده است،‌توجه نمی‌کنند. انسان دارای شبکه عصبی است که برای مثال چنانچه به دنبال یک تاکسی هستید، توجه روی یک شی‌ء زردرنگ و متحرک متمرکز خواهد گردید. اما هیچ‌کس سؤال نمی‌کند که چگونه چنین شبکه‌هایی نمی‌توانند به پرسش‌هایی از نوع دیگر پاسخ بدهند.
با این‌حال فهم عرف (Common sence) مشکل پیچیده‌تری است. آیا این‌طور نیست؟ به نظر شما همین موضوع دلیل رویگردانی بسیاری از محققان هوش مصنوعی از این حیطه و روی آوردن به حیطه‌های دیگر نیست؟

همین‌طور است. زمانی که در حال نوشتن کتاب جامعه ذهن بودم، چند سالی بود که  روی ساخت کامپیوتری  کار می‌کردیم که یک داستان ساده کودکانه را بفهمد. این داستان می‌گوید: <ماری به میهمانی جک دعوت شده است . او گمان می‌کند که جک احتمالاً از یک کایت خوشش خواهد آمد.>  اگر شما سؤال کنید: <چرا ماری به یک کایت فکر می‌کرد؟> هر کسی پاسخ را می‌داند: این جشن احتمالاً یک جشن تولد است و اگر ماری به جشن خواهد رفت، به این معنی است که به میهمانی دعوت شده است و هر کسی که به میهمانی تولد دعوت بشود، باید هدیه‌ای با خود به همراه ببرد.

این هدیه برای یک پسر جوان است. پس باید چیزی باشد که معمولاً پسرها دوست دارند. پسرها هم انواع مشخصی از اسباب‌بازی‌ها را دوست دارند. چیزهایی مانند چوب بیسبال، توپ و کایت. شما تمام این مطالب را باید بدانید تا بتوانید به سؤال اول پاسخ دهید. ما بانک اطلاعات کوچکی ساختیم و برنامه را به فرمی اجرا کردیم که بتواند برخی سؤال‌های ساده را بفهمد و به آن‌ها پاسخ دهد. ما این‌کار را روی داستان دیگری امتحان کردیم، ولی برنامه نمی‌دانست که چه کاری باید انجام بدهد. برخی از ما به این نتیجه رسیدیم که شما پیش از این‌که بتوانید ماشینی بسازید تا تفکری استدلالی انجام بدهد، مجبورید چند میلیون چیز را بدانید.

حال که مردم دریافته‌اند ساخت کامپیوتری هوشمند با ویژگی‌های نزدیک به هوش انسانی کار بسیار مشکلی است، آیا شما عقیده دارید که برخی احتمالات خوشبینانه که در دهه‌های ۱۹۵۰ و ۱۹۶۰ حول هوش مصنوعی شکل گرفتند، اینک از بین رفته‌اند؟
گمان نمی‌کنم واژه خوش‌بینی، کلمه صحیحی باشد. فکر می‌کنم ما سؤالات خوبی را مطرح کردیم، اما به هر دلیلی اکثر کسانی که روی آنچه خود هوش مصنوعی می‌نامند کار می‌کردند، جست‌وجو به دنبال یکی از این راه‌حل‌های فراگیر را آغاز نمودند. در فیزیک آنچه جواب داده است، قوانین نیوتن و پس از آن ماکسول و حالا هم تئوری‌های نسبیت و کوانتوم هستند. اما انسان‌ها دارای صد مرکز مختلف ذهنی هستند که هر کدام با اندکی تفاوت نسبت به یکدیگر کار می‌کنند. شما مجبور نیستید تنها روی یک راه‌حل فکر کنید. باید از دسته‌ای از ابزارها سود جست.
عمده سرمایه‌های لازم جهت فعالیت‌های مرتبط با هوش مصنوعی از جانب آژانس پروژه‌های تحقیقاتی پیشرفته  تأمین می‌شود. یعنی مرجعی که مشخصاً خواستار نتایج کاربردی و شفاف است. در واقع آن‌ها یکی از حامیان مالی کنفرانس هوش مصنوعی Dartmouth هستند. آن‌ها چگونه به تحقیقات هوش مصنوعی شکل می‌بخشند؟
در اوایل آن‌ها از افراد پروژه پشتیبانی می‌کرد نه از طرح‌های پیشنهادی. از زمان شروع کار در سال ۱۹۶۳ پیشرفت‌های بسیار زیادی حاصل شد. مدت ده سال نتایجی که من از آن‌ها صحبت می‌کنم، واقعاً درخشان بودند تا این‌که در اوایل دهه ۱۹۷۰، اتفاق عجیبی افتاد. سناتور مایک منزفیلد که یک لیبرال به تمام معنی بود، تصمیم گرفت که وزارت دفاع دیگر از پژوهش‌های غیرنظامی پشتیبانی نکند. به همین خاطر مسئولیت تبدیل ARPA به DARPA و همین‌طور فشار جهت رقابت نکردن با صنعت و بخش خصوصی برعهده وی بود. از همان زمان دیگر وزارت دفاع نتوانست مشوق و پشتیبان پژوهشگران خیالباف و رویایی باشد.
همزمان جامعه محققان ایالات‌متحده از اوایل دهه ۱۹۷۰ حیطه فعالیت‌های خود را محدود نمود. آزمایشگاه‌های بل، RCA و دیگران کاملاً از چنین فعالیت‌هایی کناره گرفتند. در اینجا اتفاق دیگری هم رخ داد؛ و آن، فراگیر شدن تب تأسیس شرکت و بنگاه‌های اقتصادی بود. در دهه ۱۹۸۰ بسیاری از مردم شروع به ثبت حق مالکیت و انحصار مادی و معنوی اختراعات، اکتشافات و ایده‌های خود کردند و قدم در مسیر تولید برداشتند. این‌کار با کاهش عمومی در تعداد محققان جوان توا‡م گردید: افرادی که می‌توانستند دانشمندانی خلا‌ق باشند، اینک به سوی وکالت و کسب و کار می‌رفتند.
با این وضعیت دیگر به هیچ‌وجه امکان پشتیبانی از تحقیقات در زمینه هوش مصنوعی وجود ندارد. اگر شما ایده خوبی در سر دارید، انتشار عمومی آن کار بسیار سختی است؛ زیرا مردم می‌گویند: <تجربه عملی و آزمایش‌های شما در این‌باره چه چیست؟> اما مشکل اساسی در زمینه عقل سلیم این است که شما تا زمانی که بانک اطلاعات بزرگی نداشته باشید، نخواهید توانست آزمایشی انجام بدهید. البته یک بانک به نام Cyc وجود دارد که توسط Doug Lenat در ۱۹۸۵ ایجاد شد. ما هم بانکی به نام Open Mind داریم که دسترسی به آن برای هر علاقمندی آزاد است. هر چند این بانک اطلاعاتی هنوز به خوبی ساختاربندی نگردیده است. این‌ها تمام نتایج تحقیقاتی هستند که می‌توان با بررسی آن‌ها دریافت که چگونه می‌شود بانکی همانند Open Mind به وجود آورد.
اشاره کردید که یک کامپیوتر برای ایجاد ارتباطات منطقی و استدلالی نیازمند چند میلیون فقره اطلاعات است. اماLenat و همکاران وی دقیقاً روی همین موضوع کار می‌کردند و سال‌ها مشغول تغذیه Cyc با معلومات استنتاجی بودند. با این حساب چرا باز هم به بانک اطلاعات دیگری نیاز است؟
زمانی که Lenat در سال ۱۹۸۵ کار Cyc را آغاز نمود، این کار بسیار جاه‌طلبانه و بلندپروازانه بود؛ زیرا در آن زمان پرژوه مشابه دیگری در این زمینه وجود نداشت. من و همکارانم تصمیم گرفتیم صبر کنیم و منتظر نتیجه کار آنان بمانیم. پس از آن تا چند مدت خبری نبود.
Lenat چند کار خیلی خوب انجام داد. مشکل اینجاست که Cyc طریقه استفاده بسیار سختی دارد، اختصاصی است و حق‌مالکیت شخصی دارد. به خاطر همین، زیاد مورد استفاده محققان قرار نگرفت. همچنین سیستم وی مشکلات زیادی هم دارد که در اوایل کار مشخص نگردیدند؛ زیرا رقیبی برای آن وجود نداشت.
آن‌ها Cyc را مستقل ساختند. به همین دلیل عملاً اطلاعات زیادی ندارد. آیا وال یک پستاندار است یا یک ماهی؟ وال‌ها مشخصات ماهی‌گونه زیادی دارند. به همین دلیل خیلی‌ها تعجب می‌کنند اگر بشنوند که وال یک پستاندار است. اما پاسخ صحیح این است که هر دوی این‌ها می‌تواند باشد. یک بانک اطلاعات با قوه استدلا‌ل، الزاماً نباید به طور منطقی قائم بالذات باشد.
کتاب The Emotion Machine اثر مینسکی با جلد گالینگور به همت انتشاراتSimonِSchuster در نوامبر ۲۰۰۶ منتشر شده است. وی مقدمه‌ای برای کتاب نوشته است.
بالاخره Lenat دریافت برای این‌که Cyc قادر باشد به پرسش‌هایی در زمینه‌های مختلف و متنوع دیگر پاسخ دهد، باید آن را دوباره ساختاربندی نمایند. اما این بانک اطلاعاتی اساساً برای یک عملکرد منطقی بسیار قوی و محکم نوشته شده و زبان آن هم جبرگزاره‌ای ‌(Predicate Calculus) است. امید ما این است که بتوانیم سیستم Open Mind را قادر به کار با زبان طبیعی ‌(Natural Language) بنماییم؛ زبانی که البته شامل ابهاماتی نیز هست، اما این ابهامات به جز جوانب منفی، جوانب مثبت نیز دارند.
لطفاً به چند مورد از سرفصل‌های اصلی یا توصیه‌های تحقیقاتی که در کتاب خود، یعنی The Emotion Machine ذکر نموده‌اید، اشاره نمایید.

ایده اصلی در این کتاب چیزی است که من به آن <اشراف> می‌گویم. تا زمانی که شما چیزی را از چند زاویه متفاوت مورد توجه و بررسی قرار ندهید، احتمالاً پیشرفتی نخواهید داشت. به همین خاطر توصیه کتاب، این حقیقت است که شما ناگزیرید قضایا را از چند طریق مختلف توصیف نمایید. من برای این‌کار یک کلمه ساخته‌ام به نام: وقتی شما مطلبی را ارائه می‌دهید، باید آن را از چند وجه مختلف توصیف کنید و برای این‌کار باید بتوانید بدون این‌که نیازی به فکر کردن داشته باشید، توضیحات خود را از یک جنبه به جنبه دیگر تغییر بدهید.

موضوع دوم این‌که شما باید چند راه مختلف هم برای فکر کردن داشته باشید. مشکل ما با هوش مصنوعی این است که افرادی می‌گویند که می‌خواهیم سیستمی را بر اساس استنتاج آماری (Statistical Inference) یا الگوریتم‌های ژنتیکی (Genetic Algorithms) یا هر چیز دیگری بسازیم.

این سیستم‌ها برای حل برخی از مشکلات مناسب هستند، نهتمام مشکلات. قصد اصلی از انتخاب عنوان The Emotion Machine برای این کتاب این است که ما به چنین مسائلی احساسات (Emotion) می‌گوییم، اما مردم آن‌ها را اضافاتی اسرارآمیز برای تفکر عقلانی می‌دانند. به نظر من حالات احساسی فقط روش دیگری از تفکر است.
وقتی شما عصبانی هستید، برنامه‌ریزی بلندمدت خود را کنار می‌گذارید و سریع‌تر فکر می‌کنید. در این حالت منابع ذهنی دیگری را فعال می‌سازید. یک ماشین محتاج چند صد راه مختلف برای فکر کردن است، اما ما این راه‌ها را چند صد حالت مختلف احساسی می‌نامیم؛ نه چند صد راه مختلف برای فکر کردن. در این کتاب بیست دستورالعمل مختلف درباره نحوه فکر کردن وجود دارد. با این حال خواننده نیاز به اطلاعات غنی اضافه‌ای دارد تا تشخیص دهد کدام روش فکر کردن برای هر موقعیت مناسب است.
منظور شما این است که کامپیوترها هم باید عصبانی شوند؟
اگر کسی بر سر راه شما قرار گیرد و کنار نرود، شما مجبورید به وی نهیب بزنید تا او را وادار کنید از شما بترسد. چنانچه شما عجله داشته باشید، یا اگر به خاطر رد نشدنتان از سد معبرِ به وجود آمده اتفاق بدی برای شما بیفتد، این یک راه کاملاً معقول و منطقی برای حل مشکلتان است. من پیشنهاد می‌کنم بیست نام مختلف برای این روش‌های تفکر پیدا کنیم. آن وقت می‌توانیم کلمه عقلانی (Rational) را دور بیندازیم.

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *