گفت‌وگو با دکتر کامبیز بدیع‌ به مناسبت پنجاهمین سالگرد علم هوش مصنوعی (AI)

گفت‌وگو اختصاصی ماهنامه شبکه با دکتر کامبیز بدیع‌ به مناسبت پنجاهمین سالگرد علم هوش مصنوعی (AI)


اشاره :
مردی که به قول خودش، تنها سه سال از هوش مصنوعی مسن‌تر است، به مناسبت پنجاهمین سالگرد شکل‌گیری هوش مصنوعی، در گفت‌وگویی مفصل با ماهنامه شبکه، از جنبه‌های گوناگون، زوایای این حوزه را می‌کاود.

من فکر می‌کنم، چون می‌خواهم پیوند ایجاد کنم
هنگامی که برای پرونده <هوش مصنوعی> از اهالی این حوزه، سراغ یکی از چهره‌های برجسته این شاخه از علم را می‌گیریم که بتوانیم با او به گفت‌وشنود بنشینیم، همه انگشت‌ها به جایی در انتهای خیابان کارگر شمالی اشاره می‌کنند؛ ساختمان مرکزی <مرکز تحقیقات مخابرات ایران>. در طبقه دوم ساختمان اصلی این مرکز، در نیمه‌های سالن بزرگی پر از اتاقک‌های شیشه‌ای، مردی نشسته است که <هوش‌مصنوعی> برایش تنها شاخه‌ای از علوم کامپیوتری نیست. دکتر کامبیز بدیع، مدیر دپارتمان IT <مرکز تحقیقات مخابرات ایران>، پژوهشگر و مدرس دانشگاه، مردی است که عاشقانه با <هوش مصنوعی> زندگی می‌کند. و این عشق، از همان ابتدای دیدارمان خود را نشان می‌دهد، پیش از آن‌که ما اولین پرسشمان را مطرح کنیم او تاریخچه کوتاهی از چگونگی شکل‌گیری این علم را بیان کرده است. به یاد می‌آورد که حدود چهارده سال پیش با مجله ریزپردازنده گفت‌وگویی داشته است درباره ماروین مینسکی. به یاد می‌آورد که در سال 1992، در سمیناری در وین، که خود نیز در آن مقاله ارائه داده بود، از پروفسور لطفی‌زاده پرسیده بود که: <آیا این توابع عضویتی که شما فرض کرده‌اید، می‌توانند قابلیت یادگیری از تجربه را داشته باشند؟> و:"پروفسور در جواب بسیار صادقانه و خاشعانه گفته بود: Not yet"

و اینگونه، مردی که به قول خودش، تنها سه سال از هوش مصنوعی مسن‌تر است، به مناسبت پنجاهمین سالگرد شکل‌گیری هوش مصنوعی، در گفت‌وگویی مفصل، از جنبه‌های گوناگون، زوایای این حوزه را می‌کاود. به بعضی از سؤالا‌ت ما به طور مستقیم پاسخ نمی‌دهد، چرا که معتقد است اندیشمندان دیگری، در آن حوزه خاص، صلا‌حیت بیشتری دارند. گاه نیز به شیوه رفتار یک دیپلمات کار کشته، به نرمی، پرسشی را به ‌گونه‌ای تفسیر یا تعبیر می‌کند که بتواند آنگونه که می‌خواهد بدان پاسخ دهد.

گفت‌وگو با دکتر بدیع تجربه‌ای بود دلنشین و در عین حال دشوار. دلنشین بود از آن رو که سرشار از دانش، نکات و حتی لطایف زبانی بود. و دشوار از آن رو که متأسفانه بسیاری از این نکات و لطایف، هم به دلیل حفظ روند اصلی گفت‌وگو و هم به دلیل دغدغه‌ای که به لحاظ تعداد صفحات مصاحبه داشتیم، به ناچار حذف شد. از آن جمله می‌توان به بحثی اشاره کرد که دکتر بدیع درباره وب مطرح می‌نماید و اظهار می‌دارد که مطابق نظرات اساتید زبانشناسی، در فارسی قدیم، بفتن همان معنای بافتن را در بر دارد. <ما می‌توانیم به جای Word Wide Web بگوییم وف جهان‌گستر؛ وف جهان‌گستر هم ترکیب زیبایی است؛ به نوعی وفا را هم در خودش دارد. شاید بد نباشد اینگونه فکر کنیم که وقتی اجزا به هم بافته می‌شوند، وفا معنی پیدا می‌کند؛ ولی وقتی به هم بافته نشوند، با اندک فشاری که به یک جزء وارد می‌کنید، تمام اجزا از هم گسیخته می‌شود…>. و اینگونه نکات، آنقدر جذاب است که ارزش آن را دارد که خود موضوع گفت‌وگویی جداگانه باشد.

در تمامی مراحل انجام و تنظیم این گفت‌وگو از کمک‌های بی‌دریغ کیوان تیرداد که خود دانشآموخته هوش‌مصنوعی است بهره بردم. پرهام ایزدپناه، همکار جوان و پرانرژی مجله نیز در این‌ گفت‌وگو حضور داشت که از هر دوی آن‌ها سپاسگزارم. همچنین از کمک‌های دوست و همکارم علی دریس‌زاده در انجام این گفت‌گو تشکر می‌کنم.

در تهیه بیوگرافی دکتر بدیع نیز، از شماره 169 ماهنامه <گزارش کامپیوتر>، نشریه انجمن انفورماتیک ایران، استفاده شده است.

هرمز پوررستمی

.

دکتر کامبیز بدیع، فارغ‌التحصیل دبیرستان البرز است و درجات کارشناسی، کارشناسی ارشد و دوره دکترای خود را در زمینه مهندسی الکترونیک و برق با گرایش بازشناسی الگو (pattern recognition) از مؤسسه فناوری توکیو دریافت نموده است. ایشان از بدو بازگشت به ایران در مرکز تحقیقات مخابرات ایران مشغول به فعالیت بوده و فعالیت‌های تحقیقاتی خود را در گروه مهندسی آزمایش بخش رایانه و مخابرات (C&‌C) این مرکز، با تأکید بر به کارگیری روش‌های بازشناسی الگو (PR) و هوش‌مصنوعی (AI) در اشکال‌یابی و اشکال‌زدایی در سامانه‌های الکترونیک آغاز نموده است. در این ارتباط، دکتر بدیع، مبدع فنونی بوده است که در نرم‌افزارهای مربوط به آزماینده‌های خودکار فرآورش یافته در این گروه عملاً مورد استفاده قرار گرفته، که در شمار آن‌ها می‌توان به فنون مورد استفاده در آزماینده میزان 2000 و 2500 اشاره نمود. ایشان مسئولیت دو پروژه تحقیقاتی کلیدی در گروه پژوهشی جامعه اطلاعاتی را نیز عهده‌دار بوده‌است.
از جمله فعالیت‌های علمی – حرفه‌ایِ دیگر دکتر بدیع می‌توان به موارد زیر اشاره داشت:
عضویت در هیئت اجرایی انجمن انفورماتیک ایران، عضویت در هیئت مدیره انجمن کامپیوتر ایران، دو دوره عضویت در هیئت مدیره انجمن مهندسی کنترل و ابزار دقیق ایران، عضویت سابق در شورای علمی پژوهشکده سیستم‌های هوشمند، دبیری هفتمین کنفرانس سالانه انجمن کامپیوتر ایران، دبیری سمپوزیوم فرآیندهای تفسیری و پردازش محیطی (IPEF)، عضویت در تیم گردانندگان کمیته علمی اولین کنفرانس اروپایی-آسیایی فناوری اطلاعات و ارتباطات (Eurasia ICS-2002)، مسئولیت کمیته روابط بین‌الملل هفتمین کنفرانس مهندسی برق، مسئولیت کمیته علمی دومین و سومین کارگاه فناوری اطلاعات و گستره‌های آن (WITID2004, WITID2006)، عضویت در کمیته علمی کنفرانس بین‌المللی سیستم‌های هوشمند شناختی (ICICS)، مسئولیت کمیته علمی اولین همایش اخلاق و فناوری اطلاعات، مسئولیت کمیته علمی (شاخه ایرانی)‌ سومین همایش بین‌المللی روش تحقیق در علوم و فنون مهندسی، عضویت در کمیته‌های علمی کنفرانس‌های سالانه انجمن کامپیوتر ایران و نیز کنفرانس‌های مهندسی برق ایران، عضویت در کمیته علمی کنفرانس‌های ماشین بینایی ایران، عضویت در کمیته علمی و سازماندهی کنفرانس بین‌المللی هوش مصنوعی در آمریکا (IC-AL-2004)، عضویت در شورای تحریریه مجله فنی – مهندسی دانشگاه فردوسی مشهد، عضویت در شورای تحریریه مجله علوم مهندسی و کامپیوتر،‌ عضویت در شورای تحریریه مجله بین‌المللی مهندسی، عضویت در شورای تحریریه مجله Scientific Inquiry و عضویت در تیم سرپرستی پروژه تحقیقاتی شبکه‌های عصبی.

اهم فعالیت‌ها و مقالات تحقیقاتی دکتر بدیع در دهه اخیر، یادگیری ماشین (ML) و مدل‌سازی شناختی به طور اعم، و مدل‌سازی رایانشی فرآیندهای قیاسی، فرآیندهای تفسیری و فرآیندهای مبتنی بر تجربه به طور اخص، با تأکید بر مقاصدی از قبیل انتقال بهینه مفاهیم تخصصی، راهبری تحقیقات و تکنیک‌زایی/ ایده‌زایی در حوزه حل مسائل مهندسی می‌باشد.

دکتر بدیع در تدوین بالغ بر دویست مقاله علمی -تحقیقاتی در حوزه‌های پردازش و بازشناسی الگو، هوش‌مصنوعی و رایانش نرم، و سامانه و گردانش برای کنفرانس‌های معتبر داخلی و خارجی، و تدوین چند مقاله علمی در مجلات معتبر خارجی و داخلی شرکت داشته است. وی در حال حاضر عضو شورای پژوهشی و رئیس پژوهشکده فناوری اطلاعات در مرکز تحقیقات مخابرات ایران، عضو هیئت امنای مرکز تحقیقات مخابرات ایران و عضو هیئت مدیره انجمن کامپیوتر ایران و مدرس درس یادگیری ماشین و مدیریت دانش در دانشگاه‌های تهران و از اعضای فعلی هیئت تحریریه و ویراستاران علمی <گزارش کامپیوتر> نشریه انجمن انفورماتیک ایران می‌باشد.


دکتر بدیع: بحث هوش‌مصنوعی، برای اولین‌بار، در سال 1956 در کنفرانس دارت‌موث مطرح شد. ماروین مینسکی از دانشگاه MIT، جان مک‌کارتی از دانشگاه استنفورد و آلن نیوول، هربرت سایمون و آلن‌ شاء، هر سه از مرکز تحقیقات شرکت زیراکس (رند) پنج چهره معروف آن کنفرانس بودند. در این کنفرانس به پیشنهاد ماروین مینسکی برای اولین‌بار به طور رسمی علم هوش مصنوعی اعلا‌م و پایه‌گذاری گشت. به همین دلیل، مینسکیِ لهستانی‌الا‌صل را به عنوان پدر هوش مصنوعی می‌شناسند. بعداً مرکز تحقیقات رند (Rand Institute of Techology) به دانشگاه کارنگی ملون تبدیل شد که قوی‌ترین دپارتمان علوم شناختی دنیا را دارد



‌‌ وضعیت هوش مصنوعی در ایران را چگونه می‌بینید؟

‌ من پیشرفت این شاخه از علم را در ایران خوب ارزیابی می‌کنم. البته دلیل آن را هم خواهم گفت. هوش مصنوعی یا به مفهوم گسترده‌تر و جدیدتر آن، هوش رایانشی (Computatinal Intellgence)، موضوعی است که در تمام ابعاد حل مسئله و تصمیم‌گیری در دامنه‌های مختلف رسوخ کرده است. به تعبیری، وقتی دامنه‌های مختلف تصمیم‌گیری در یک جامعه را، (مانند مدیریت، بهداشت و درمان، صنعت، امنیت، آموزش و پژوهش، تغذیه، جنگل‌داری و …) که هر کدام به نوبه خود با گستره وسیعی از مسائل مواجه هستند، در نظر بگیرید، عملا‌ً سازوکارAI و Computational Intelligence در همه این حوزه‌ها رسوخ و نفوذ کرده است.

افرادی هم که درگیر این زمینه‌ها و بافتارها بوده‌اند، چه صاحب‌نظران دانشگاهی، و چه متخصصانی که در بخش خصوصی کار می‌کنند، به خوبی توانسته‌اند به پیروی از سیاق‌های دانش مربوطه‌ وارد حل مسائل این حوزه‌ها بشوند. مثال وجودی آن هم، برنامه‌های خبره یا سیستم‌های هوشمندی است که امروزه در این زمینه‌ها، در داخل ایران هم توسط پژوهشگران و مهندسان توسعه داده شده است.



‌‌ ‌می‌توانید نمونه‌هایی را مثال بزنید؟
‌اول توضیحی بدهم که چرا بین یک سیستم خبره و یک سیستم هوشمند کمی تمایز قایل ‌هستم. به این خاطر که سیستم خبره عملا‌ً خودش را بیشتر قائم به هوش مصنوعی نمادین می‌کند.

هر چند در حال حاضر ما سیستم‌های خبره‌ای داریم که حداقل بخش میانا و اینترفیس آن، با تبعیت از روش‌هایی مثل شبکه‌های عصبی عمل می‌کند، ولی عمدتاً سیستم‌های خبره، هنوز بر پایه هوش نمادین عمل می‌کنند.

اما وقتی می‌گوییم سیستم هوشمند، در واقع دیگر ذات سیستم را قائم به یک برنامه نمادین نمی‌بینیم؛ مانند سیستم‌های کنترلی، روبات‌ها یا برنامه‌های هوشمندی که در حوزه مدل‌سازی، تشخیص و درمان پزشکی و تحلیل و طبقه‌بندی انواع الگوها شکل گرفته‌اند.

اما پیشرفت در این زمینه، عمدتاً به این نکته برمی‌گردد که هوش مصنوعی و هوش رایانشی جزء آن دسته از گستره‌ها محسوب نمی‌شوند که برای یافتن نمود بیرونی خود، الزاماً به تجهیزات خاص یا گرانقیمتی نیاز داشته باشند؛ مانند حوزه پزشکی، میکروالکترونیک و یا فیزیک هسته‌ای که به تجهیزات ویژه‌ای نیازمندند. به همین دلیل، مشکلا‌ت و دشواری‌های خاص تأمین چنان تجهیزاتی دست کم در بسیاری از موارد، وجود ندارد.

اما درباره نکته نهفته در سؤال شما که آثار این پیشرفت‌ها را کجا می‌توانیم ببینیم، باید گفت ممکن است هنوز آثار بسیاری از این فعالیت‌ها، در صنعت، مدیریت، درمان و پزشکی و … عملیاتی نشده باشد و این عملیاتی نشدن نه به خاطر این است که این اقدامات صورت نگرفته است، بلکه به این خاطر است که در برهه‌ای، وارد بحث‌های فنی خاصی می‌شویم.

مثلا‌ً این‌که اگر یک برنامه هوشمند عملا‌ً در نهایت برای عملیاتی شدن به یک سخت‌افزار خاص نیاز داشته باشد، باید عناصر لا‌زم برای ساختن این سخت‌افزار را داشته باشید. مانند تراشه‌های خاص از قبیل تراشه‌های عصبی
(Neuro-Chip) یا عصبی شولا ‌(Neuro-Fuzzy Chip) که در حال حاضر به عنوان بلوک‌های اولیه سیستم‌های هوشمند تلقی می‌شوند. حالا‌ اگر این‌ها را نداشته‌‌‌باشیم، به معنای آن نیست که این اقدامات صورت نگرفته یا حتی پیاده‌سازی نشده است. تجزیه و تحلیل‌ها، مدل‌سازی‌ها و تست‌ها انجام شده و پیاده‌سازی صورت گرفته است. اما ممکن است به مفهومی که گفته شد، عملیاتی نشده باشد.

در هوش مصنوعی حوزه‌های متنوع و گرایش‌های متفاوتی وجود دارد. در بین این حوزه‌های مختلف،‌ کدام یک را اثرگذارترین حوزه در صنعت می‌دانید؟

‌در جواب این سؤال، باید پرسید که تلقی شما از صنعت چیست. خوشحالم که چنین سؤالی مطرح شد. کلمهIndustry در لا‌تین به معنی تلا‌ش و کوشش است. ریشه کلمه Indust، شاید همان اندوخت فارسی باشد. وقتی شما می‌اندوزید، یعنی برنامه‌ریزی می‌کنید که از آن اندوخته، در یک مسیر هدفمند استفاده کنید و نوعی پویایی را در محیط بیرونی خودتان ایجاد کنید. این نشأت و بنیانِ فکری کلماتی مثل Indust و یا اندوخت است. (البته امیدوارم که زبان‌شناسان، بر من خرده نگیرند. این‌ها صرفا استنباط‌های شخصی اینجانب است و بر صحت آن‌ها تأکید خاصی ندارم.)

آنچه بعد از انقلا‌ب صنعتی در یک جامعه تجددگرا و مدرن اتفاق افتاد، این بود که تبعات و عقبه این تلا‌ش‌ها، در قالب فرآورده‌های صنعتی نشان داده شد و عمده تلا‌ش و کوشش به سمت و سویی رفت که آن فراورده‌ یا محصول بتواند قالب ملموسی به خود بگیرد که به صراحت و شفافیت در جامعه بیرونی قابلیت کاربری داشته باشد و یا به عبارتی، عینی و ملموس باشد. به این ترتیب در دوران تجددگرایی،‌تعریف محدودی از Industry داریم. بنابراین‌، اگر منظور شما همان Indstry است که در کنارش بحث‌هایی از قبیل Industrial Engineering و Industrial Management و … مطرح می‌شود، پاسخ خاص خود را دارد، ولی اگر Industry را قدری به مفهوم پساتجدد آن در نظر بگیریم، شاید پاسخ تا حدودی متفاوت باشد.

همین‌جا ناگفته نماند که بروز انقلا‌ب IT، و به دنبال آن Information and Knowledge Technology و Information and Communication Technology) ICT)، باعث شد که به شکلی، مفهوم Industry از این قالب کلیشه‌ای که در واقع موروثه دوران مدرنیزیم بود، خارج شود و مقداری مفهوم آن گستره‌تر و انتزاعی‌تر شود. چون به هر حال شما برای گستردن یک مفهوم، به صعود به مرحله‌ای بالا‌تر از تجرید و انتزاع نیاز دارید. در دیدگاه پساتجددگرایی، عینیت به طرف ذهنیت و تجرید سوق پیدا نموده و در این ماجرا، IT نقش بسیاری بارزی را ایفا کرده است.

ولی چرا ذهنیت در IT جایگاه ویژه‌ای دارد؟ برای این‌که به جرات می‌توان گفت کهIT اولین فناوری‌ای است که مقوله تعاملی (Interactive) بودن و ارتباطی (Communicative) بودنِ کاربر انسانی را در سیطره کارکردی سامانه‌ها مطرح می‌کند. یا به تعبیری،‌آحاد انسانی را به عنوان زیرمجموعه‌ای از فناوری می‌بیند. هیچ فناوری دیگری نبوده است که کاربر انسانی یا عنصر انسانی را به عنوان زیرمجموعه خودش ببیند.

البته در فناوری‌های دیگر هم انسان با فناوری تعامل دارد. مثلا‌ً یک واحد تولید برق را در نظر بگیرید. کوچک‌ترین خطای انسانی می‌تواند آسیب‌های زیادی را وارد کند، بله، نقش اپراتور بسیار حساس است. اما به این نکته توجه داشته باشید که جایی که شما وارد رابطه‌ای می‌شوید که متضمن یک تعامل مؤثر، بهینه و ستبر (Robust) بین کاربران انسانی و تأسیسات (Plant) مربوطه باشد، خواه ناخواه ‌وارد فناوری اطلا‌عات شده‌اید. چرا؟

به خاطر این‌که برای چنین تضمینی، شما به درپاییدن تراکنش‌ها و دادوستدهای اطلا‌عاتی بین کاربران و آن تأسیسات نیاز دارید. درپاییدن (مانیتور کردن) این تراکنش‌ها نیز، چیزی نیست جز ورود به صحنه فناوری اطلا‌عات.
حال‌ که واحدهای انسانی به عنوان زیرمجموعه آن فناوری تلقی شدند، پس روحیات، عواطف، ذهنیت‌ها، دانش‌های پس‌زمینه و عوامل دیگر مرتبط با این انسان‌ها، در جایگاه خود به عنوان آرگومان‌ها و شناسه‌های این فناوری محسوب خواهد شد. منظور از آرگومان، چیزی است که فناوری به آن بیندیشد و به آن اهمیت داده وبه‌طور جدی به آن بپردازد. به عبارتی، با در نظر نگرفتن آن‌ آرگومان‌ها، فناوری ممکن است، هرچند با احتمال وقوع پایین، دستخوش تزلزل و خدشه شود.

آن‌چه به عنوان ذهنیت در کاربران تلقی می‌شود، مؤلفه‌ها و خصوصیاتی است که در ارتباط انسان با محیط پیرامونی خود معنا می‌یابد. به همین دلیل، اگر روند رو به رشد IT را مطالعه کنید، می‌بینید که بخش عمده‌ای از کارها و تحقیقاتی که در حوزه دانش و فناوری اطلا‌عات انجام می‌شود، به مقوله مدلسازی کاربر (User Modelling) و مبحثی تحت عنوان شخصی‌سازی (Personalization) تخصیص پیدا کرده است؛ چرا که اگر مدل کاربر انسانی و حالا‌ت خاص او در ارائه یک سرویس، اعم از سرویسی که می‌خواهد در اختیار فردی قرار داده شود که خودش به عنوان یک مهندس با آن سیستم تعامل داشته باشد، یا سرویس‌هایی که کاربر نهایی و مشتری دارد، به ‌گونه‌ای در نظر گرفته نشود، محیط دچار مشکل خواهد شد.

‌‌ محیط دچار چه مشکلی می‌شود؟
محیط از بازه‌ اهدافی که برایش تعریف شده است، دور می‌شود.

‌‌ ‌این بحث در دوران مدرن چگونه مطرح می‌شد؟
‌‌ در دوران مدرنیته به این موضوعات کمتر توجه می‌شد. اجازه بدهید یک مثال بسیار ساده، در همین حوزه AI و فناوری اطلا‌عات، بزنم. اگر سیر تکوین مهندسی نرم‌افزار را در دوران مدرنیزم در نظر بگیرید، می‌بینید که عمدتاً این سیر به سمت و سویی بوده است که یک سیستم پیچیده با ترفندها و شگردهای خاص خود توسعه داده می‌شد و این انسان‌ِ کاربر بود که باید خود را با پیچیدگی‌ها و دشواری‌های سیستم انطباق بدهد. (اعم از این‌که کاربر، برنامه‌نویس یا تحلیلگر نرم‌افزار است، یا یک کاربر نهایی).

پس در دوره مدرنیزم، مهندسی نرم‌افزار بیشتر به صورت سیستم-‌نگر مطرح می‌شد. مصداق آن هم این بوده است که برنامه‌نویس باید بنشیند و کُد بنویسد. حال،‌ خوب است که برنامه‌ها از سطح پایین به سطح بالا‌ ارتقا یافتند و برنامه‌نویسان عملا‌ً مجبور نبودند که با اسمبلی برنامه‌نویسی کنند. دورانی رسید که زبان‌هایی مثل ال‌گول، پاسکال، بیسیک، فورترن، کوبل و … به میان آمد، اما در ماهیت قضیه تفاوتی نکرد؛ چرا که انسان برنامه‌نویس ناچار بود تا با تبعیت از یک سری پروتکل‌های خاص برنامه‌نویسی کند.

ولی همین که ما از دوران مدرنیزم قدری وارد پست‌مدرن می‌شویم، در واقع از زمانی که نگاه‌ها عوض می‌شود، اتفاقی که می‌افتد این است که به جای شیء (Object)، مولفه (کامپوننت) خواهید داشت؛ مؤلفه‌ای‌شدن محیط برنامه‌نویسی، شما را عملا‌ً به سمت و سویی سوق می‌دهد که بتوانید به عنوان یک برنامه‌نویس یا تحلیلگر نرم‌افزاری، از مؤلفه‌هایی که پیشتر توسعه داده شده و هر کدام در قلمرو خود مزیت‌های خاصی را به خود گرفته‌اند، ‌به گونه‌ای برای برنامه‌های آتی استفاده کنید.

این امر تا حدودی دغدغه‌ها و مشکلا‌ت را کم می‌کند. اما، بعد، در کمال شگفتی، وارد دوران عامل‌ها (کارگزارها،
agents) می‌شوید؛ با ورود کارگزارهای نرم‌افزاری به صحنه، حال‌ دیگر قضیه خیلی فرق می‌کند. یعنی اصلا‌ً قرار نیست برنامه‌ها به صورت مستقل توسعه داده شوند.

به جای آن، وظیفه کارگزارهای نرم‌افزاری این خواهد بود که هر کدام، کار (task) خاص خود را انجام دهند. در واقع در دوران کارگزارهای نرم‌افزاری، دیگر چیزی به عنوان برنامه‌نویس وجود ندارد. صرفاً کافی است یک آرایه و چیدمان درستی بین عملکرد کارگزارها ایجاد کنید.

‌‌ در تاریخ پنجاه ساله هوش مصنوعی در دنیا، چه عواملی اگر وجود می‌داشت (یا سرمایه‌گذاری‌هایی انجام می‌گرفت) باعث پیشرفت بیشتری نسبت به وضعیت فعلی می‌شد و فکر می‌کنید که چه عاملی می‌تواند چنین تحولی را در آینده به وجود آورد؟

‌‌ به این نکته باید دقت داشته باشید، به راحتی نمی‌توانید بگویید که اگر اینگونه می‌شد، خوب می‌شد. البته می‌توانید بگویید که در خیلی جاها نمی‌توانید انتظار داشته باشید که این قضیه در عمل می‌توانست اتفاق بیفتد. چرا؟

به خاطر این‌که وقوع آن قضیه، چیز فی‌البداهه‌ای نیست. خود آن اتفاق، زمینهِ قبلی‌ای می‌خواست که اگر آن پیش‌زمینه را در نظر بگیرید، به این نتیجه می‌رسید که چه بسا همان اتفاقی که افتاده، اتفاق بهینه و مطلوب بوده است.

با این حال می‌توانم نکاتی را برای شما ذکر کنم که اگر این نکات اتفاق نمی‌افتاد یا حداقل تعدیل پیدا می‌کرد، زودتر به نقطه‌ای می‌رسیدیم که در حال حاضر در آن به سر می‌بریم. مثلا‌ً برنامه‌های پژوهشی دانشگاه‌ها و مراکز تحقیقاتی درباره موضوعات گوناگون شکل می‌گیرند که اگر این برنامه‌ها بیش از اندازه قالب افراطی به خود بگیرند، می‌توانند در سیر تکوین فناوری تأخیر و تعلل ایجاد کنند؛ بنابراین، همین که به طور افراطی، وارد بحث‌های فورمالستیک منطق و مسائلی از این دست می‌شویم، از جایی به بعد، ورود به بحث‌های عملی در یک فناوری را به وقفه می‌اندازیم.

آیا این زیان‌ها و مشکلا‌ت در حال حاضر هم وجود دارد؟

‌‌ الا‌ن خیلی کمتر شده است؛ چراکه زمینه هوش مصنوعی بسیار باز و گسترده شده است. به طوری که حتی اگر افرادی بخواهند فقط در زمینه تحقیقات نظری خاصی کار کنند، افراد دیگری هم هستند که در زمینه‌های عملی فعالیت می‌کنند.

‌‌ ‌پی بردن به مکانیزم کارکرد مغز انسانی تا چه حد می‌تواند در پیشرفت هوش مصنوعی به ما کمک کند؟

‌‌در این زمینه بهتر است اساتید برجسته‌ای چون استاد لوکس و استاد هاشمی گلپایگانی که از منظر کنترل و سیستم‌های پویا وارد مقوله مکانیسم‌های هوشمند شده‌اند، اظهار نظر بفرمایند؛ تنها به این نکته بسنده می‌کنم که به زعم اینجانب، با شناخت مغز انسان، نمی‌توان انتظار داشت که، به چنان دانشی رسید که بر مبنای آن تحول بسیار ویژه‌ای در سیستم‌های هوشمند فعلی اتفاق بیفتد. البته این حرف به این معنی نیست اصلا‌ً این امر اتفاق نیفتاده باشد. همین ارجاع به مغز باعث شد انقلا‌ب شبکه‌های عصبی اتفاق بیفتد. بسیاری از نظریه‌پردازان شبکه‌های عصبی، افرادی بودند که با الگوهایی که از مغز گرفتند، شبکه‌‌های عصبی‌ای ابداع کردند که کارکرد آن‌ها انسان گونه باشد.

اما همیشه شناخت انسان نسبت به هر چیزی، کرانی دارد. از یک جایی به بعد، ممکن است شناخت به عنوان معکوسِ شناخت عمل کند. یعنی اگر شما بخواهید به صورت بسیار جزئی و عمیق وارد مطالعات مربوط به مغز بشوید، ممکن است راه را برای بازگشت گم کنید! آنچه محرز است، کسب شناخت نسبت به کلیات بیشتر مغز، از طریق آزمایش‌ها، بسیار مغتنم است، ولی چیزی که افزون‌ بر آن، مورد نیاز است، نوع تفسیری است که از نتایج این آزمایش‌ها به عمل می‌آید. چون آنچه که در نهایت می‌تواند در توسعه سیستم‌های هوشمندِ توانمندتر تعیین‌کننده باشد، نتایجِ صرف به دست آمده‌ از آزمایش‌ها نیست، بلکه تفسیری است که از نتایج این آزمایش‌ها به عمل می‌آید و همین امر باعث شده است که یک شاخه از روانشناسی اعصاب (Neuro Psychology) در سال‌های اخیر تحت عنوان Cognitive Neuro Psychology شکل بگیرد که در واقع کار آن بررسی یافته‌های روانشناسی اعصاب از دیدگاه شناخت است.

‌‌ آیا می‌توانیم از صحبت‌های شما این‌گونه نتیجه‌گیری کنیم که ‌اگر قرار باشد در آینده، تحول بزرگی در هوش‌مصنوعی رخ دهد، این تحول در شبیه‌سازی نخواهد بود؟

‌‌ درباره این موضوع باید تا حدودی محتاط باشید. شما در هر کاری، در هر حوزه‌ای، و با هر گرایش فکری، نیاز به شبیه‌سازها دارید. ولی شاید لا‌زم باشد شبیه‌سازهای توانمندتری ساخته شود که نتیجه کارشان با رویداد اصلی انطباق بیشتری داشته باشد.

موضوع دیگر این‌که، شاید الزاماً تنها خود مغز نباید به عنوان بستر تأمین‌کننده‌ای برای توسعه سیستم‌های هوشمند در نظر گرفته شود. آنچه در خلقت اتفاق می‌افتد، فقط خلقت ذی‌حیات نیست. موجوداتی که حیات هم ندارند، به نحوی دارای هوشمندی هستند. به عنوان مثال، فلزاتی هستند که تحت شرایطی، وقتی گرم می‌شوند و سپس سرد می‌گردند، به حالت اولیه خود برمی‌گردند.

‌‌ شما این موضوع را متضمن نوعی هوش می‌دانید؟

البته. ببینید،‌ تعریفی که امروزه از هوش می‌شود، بیشتر به انعطاف‌پذیری (Flexibility) اشاره دارد که شما به صور مختلف می‌توانید آن را در تغییر حالت یافتن یک موجود در برخورد با محیط خود پیدا کنید. اگر بپذیریم که هوش نوعی حالت انتقالی (transitive) است که یک موجود در برخورد با محیط به خود می‌گیرد، دیگر لزومی ندارد که بحث در مورد آن را فقط به ذی‌حیات محدود کنیم. به همین خاطر امروزه سرمایه‌گذاری‌های بسیار کلا‌نی صورت می‌گیرد که فیزیکدان‌ها، در مورد هوش تحقیق کنند و این خود نشان می‌دهد که فقط مغز نیست که می‌تواند تأمین‌کننده اطلا‌عات باشد. پدیده‌های فیزیکی نیز به نوبه خود می‌توانند در این بحث مطرح شوند.

‌‌ لطفاً در مورد دیدگاه‌ها و نگرش‌های موجود در علم هوش مصنوعی توضیح دهید.

‌‌ در هوش مصنوعی دو پارادایم فکری متعامد نسبت به هم وجود دارد: یکی پارادایم سیمبولیک یا نمادین، و دیگری پارادایم کانکشنیستی یا پیوندگرا. تفاوت عمده این دو را می‌توانید در این ویژگی‌ها خلا‌صه کنید: در پارادایم نمادین، همه چیز به صورتی مبتنی بر یک سری خصلت و فرآیند اشتقاق آن الگوریتمیک است. در حالی که در پارادایم پیوندگرا، چیزی به نام الگوریتم وجود ندارد. یعنی شما نمی‌توانید در شبکه‌های عصبی دنبال الگوریتم بگردید.

تعدادی نورون وجود دارند که یک سری توابع ریاضی هم به آن‌ها تخصیص داده شده است؛ البته به گونه‌ای با الگوهای آموزشی که به آن‌ها داده‌اید، شبکه را آموزش می‌دهید و به شکلی در صدد تضمین آن هستید که این شبکه از قابلیت طبقه‌بندی و تفسیر نسبت به مثال‌های آتی خودش نیز برخوردار گردد. اما با گزاره‌های خاصی که تبیین‌کنندهِ روند تضمین باشد سروکار ندارند.

در حالی که در هوش مصنوعی نمادین، گزاره وجود دارد. اگر این بحث را تعمیم بدهیم، به جایی می‌رسیم که می‌توانیم بگوییم در هوش مصنوعی پیوندگرا، چیزی به اسم دانش (Knowledge) و به‌تبع آن بازنمایی‌دانش معنای خاصی نمی‌یابد. در صورتی که در هوش مصنوعی نمادین، بخش عمده‌ای از بحث به این برمی‌گردد که دانش چگونه بازنمایی گردد. مثلا‌ً می‌توانید برای بازنمایی دانش، از Rule که یک روش پردازشی ایجایی است یا از شبکه‌های معنایی و یا از قاب که طبیعت سلسله مراتبی و ساخت‌یافته‌ای دارد، استفاده کنید.

نکته دیگر این‌که، در هوش مصنوعی نمادین، می‌توانید مسیر رسیدن به جواب را اثبات کنید. بر مبنای همین تفکر،‌سیستم‌های خبره شکل گرفته‌اند. سیستم‌های خبره این قابلیت را دارند که چونی و چراییِ رسیدن به جواب را در اختیار کاربر بگذارند و این کار را از طریق میانای گرافیکی کاربر (Graphic User Interfaice) خاصی انجام می‌دهند که در اختیار دارند. حال آن‌که شبکه‌های عصبی، چنین قابلیتی را ندارند. چون اعتقادی به نماد ندارند. از همه مهم‌تر این‌که، نحوه برخورد با حقیقت (Truth)، در هوش مصنوعی نمادین بسیار متفاوت با هوش مصنوعی پیوندگراست.

در هوش مصنوعی نمادین، گزاره‌ها، مشمول حقیقت (Truth) یا کذب (Falsness) می‌شوند. در صورتی که در هوش مصنوعی پیوندگرا، بحث Truth یا False به صورت معمول و متعارف وجود ندارد. آنجا بحث‌هایی از قبیل حیات‌پذیری (Viability) و یا کاربری‌پذیری (Workibility) است که بیشتر معنا می‌یابد.

به عبارت دیگر، چیزی که در ارتباط با روش‌های پیوندگرا و در ادامه آن‌ها،‌ روش‌های تعامل‌گرا وجود دارد، بحث عقلا‌نیت محدود (Bonded Rationality) است. این یک مسئله بسیار اساسی به عنوان عامل ممیزهِ اساسی میان هوش مصنوعی نمادین و هوش مصنوعی پیوندگرا است. در هوش مصنوعی نمادین و مبتنی بر نظریه تورینگ و اثبات‌پذیری جهان‌شمول، عقلا‌نیت، محدود نیست؛ بلکه مطلق است. در صورتی که در دیدگاه‌های پیوندگرا، شما با عقلا‌نیت محدود (Bonded Rationality) مواجهید.

کاری که منطق شولا‌ (فازی) انجام داد و در آن بسیار هم موفق بود، این بود که توانست پُلی منطقی بین این دو پارادایم ایجاد کند. فازی پلی شد بین نظریه‌های نمادین و پیوندگرا. به این خاطر که، فازی هنوز نمادین بود، از جهت این‌که خودش را برپایه گزاره‌ها بنا کرده بود (خودِ تئوری مجموعه‌ها یک پدیده نمادین است).

ولی از این جهت که بحث نسبیت را وارد عرصه اعتبارسنجی گزاره‌ها کرد، پیوندگرا بود. پس برطبق این نظریه، به دنبال این نباشید که گزاره‌ای صددرصد درست و یا صددرصد خطا باشد. فازی پلی بین این دو شد و بهترین نزدیکی و تفاهمی که بین هوش مصنوعی و نمادین و پیوندگرا به وجود آمد، آنجایی بود که سیستم‌های نمادین قاعده‌پی
(Rule Based) موازی را توانستیم توسط شبکه‌های عصبی فازی پیاده‌سازی کنیم.

Neuro Fuzzy Systemها در واقع واضح‌ترین مصداقی هستند که برای پیوند دو پارادایم فکری نمادین و پیوندگرا به وجود آمدند.

در ارتباط با زبان‌های کامپیوتری هوش مصنوعی، نکته مهم و ممیزه، رویه‌ای بودن آن‌هاست. اگر دقت کنید، در زبان‌های قراردادی کامپیوتری، با موجودیتی تحت عنوان IF – Then روبه‌رو هستید. یعنی اگر این دو را در برنامه نداشته باشید، پیشروی در برنامه نخواهید داشت. ولی به خاطر غیرپردازه‌ای بودن ماهیت هوش در بسیاری از موارد، بهتر دریافته شد که به جای این‌که قواعد (Ruleها) را در برنامه قید کنیم، صورت مسئله را در برنامه در نظر بگیریم که مشتمل بر شرایط آغازین، شرایط هدف و انتهایی مسئله بوده و عملگرهایی که می‌توانند ما را از یک وضعیت به وضعیت دیگر ببرند؛ بدون آن‌که اشاره خاصی به اصطلا‌ح‌شناسی <اگر – آنگاه> داشته باشیم. آن‌گاه خود برنامه قادر خواهد بود به خاطر مفسر (interpretor) خود، این را به حالتی ببرد که قواعد فعال شده و با فعالیت خود به شرایط آغازین مسئله برگردند و در نهایت ما را به سمت هدف سوق دهند. مصداق بارز این زبان‌ها، همان زبان پرولوگ است.


آیا ابزارهای نرم‌افزاری که در حال حاضر برای پیشبرد هوش مصنوعی وجود دارند، برای این کار کفایت می‌کنند یا این‌که به ابزارهای جدیدی نیاز داریم؟

زبان‌هایی که تا کنون در حوزه هوش مصنوعی توسعه‌ داده شده‌اند، هرکدام با انگیزه خاصی و با توجه به تعقیب کردن ویژگی‌های خاصی، در یک مساله خاص، به وجود آمده‌اند. به عنوان نمونه، پرولوگ به این خاطر به وجود آمد که محققان احساس کردند بحث <حل مسئله> (Probleme Solving) و <برنامه‌ریزی> (Planning) در هوش، اهمیت زیادی دارد. به عنوان یک مصداق هوشمندی، با مقوله Planning مواجه هستید؛ یعنی Initial Condition دارید، Final goal دارید و تعدادی اپراتور یا عملگر که به‌ازای پیش‌شرط‌هایی، چنانچه فعال شوند، شما را از یک وضعیت به وضعیت دیگر می‌برند، چون برنامه‌ریزی مسئله‌ای است که در طبیعت خودش قائم به انتقال حالت (State Transition) است، یعنی انتقال از یک حالت یا موقعیت به یک حالت یا موقعیت دیگر.
بنابراین ایجاب می‌کند که به دنبال زبانی باشیم که مفسر خاصی داشته باشد که بتواند صورت مسئله را بعد از تفسیر، به فضایی برگرداند که عملگرها بتوانند به صورت تکراری روی وضعیت‌های مختلف اعمال شوند تا در نهایت ما را به هدف برسانند.

به این ترتیب مفسر زبان پرولوگ توسعه داده شد. زبان پرولوگ چون زبان سطح بالا‌یی است، شدیداً به آن مفسر وابسته است. در واقع مسائلی مثل برنامه‌ریزی چون باید به صورت سطح بالا‌ فکر ‌شوند، پس به صورت سطح بالا‌ هم باید نوشته شوند.

یعنی نمی‌توانید از یک تحلیلگر نرم‌افزار انتظار داشته باشید به یک موضوع سطح بالا‌ فکر کند و بعد آن را به زبانی بنویسد که سطح بالا‌ نیست و نیازی به تفسیر ندارد. البته، هر موضوع سطح بالا‌یی را می‌توان به یک زبان پردازه‌ای(Procedural) هم بنویسید، ولی با دنیایی از IF- Thenها؛ اما چه نیازی به این کار هست؟

پس تحول مهندسی نرم‌افزار کجاست؟ اینجا بود که محققان به سمت تدوین برنامه‌ای رفتند که این مشکلا‌ت را برطرف کند و عملا‌ً این برنامه در آن مقطع چیزی جز زبان پرولوگ نبود.

اما اتفاقی که برای Lisp افتاد چه بود؟ Lisp به مراتب زودتر از پرولوگ عرضه شد و در همان اوان شکل‌گیری و تعریف هوش مصنوعی توسط جان مک‌کارتی، در دانشگاه استفورد شکل گرفته بود. در Lisp، بهتر است از دیدِ تبدیل به حالت نگاه شود، نه از دیدِ انتقال به یک حالت یا موقعیت.

پرولوگ در واقع به نوعی همان منطق گزاره‌ها است، یعنی قائم به گزاره است، اما در Lisp این طور نیست، بلکه به همه چیز به صورت مکانیکی و عاری از فضای گزاره‌ها نگاه می‌شود. در واقع به چیزی نیاز دارند که تبدیلا‌ت مکرر را از صورت مسئله تا هدف، توجیه کند و عمده کاربری آن برای آن دسته از مسائلی است که معنا و گزاره در آن مطرح نیست و این همان چیزی است که ما در اصطلا‌ح به آن سیستم‌های تولید در AI Prodution Systems) AI)می‌گوییم: مثل معما و بازی.

در معما و بازی نیازی به پرولوگ ندارید. قرار هم نیست داشته باشید. برای این‌که در آن‌ها نیازی به طرح گزاره‌ها نیست. در معما و بازی صرفاً حالت‌هایی مطرح هستند که در شرایط اعمال یک سری از قواعد، می‌توانند از یک گونه به گونه‌ای دیگر بروند و شما می‌توانید با درپاییدن این حالت‌ها، نهایتاً به جایی برسید که شرایط هدف ارضا گردد. اینجا بود که زبان Lisp ابداع شد.

پس آنجایی که تبدیل مطرح است، Lisp جواب می‌دهد، و آن‌جایی که Transition از یک گزاره به یک گزاره دیگر با توجه به شرایط خاص مسئله مطرح است، مانند Planning، پرولوگ جواب می‌دهد.

سؤالی که اینجا مطرح می‌شود این است که آیا می‌توان به زبانی رسید که در شرایط خاص خودش، در مُد شبه پرولوگی خود فعال شود وسپس در یک مُد دیگر؟ جواب مثبت است، یعنی شما می‌توانید یک فرازبان داشته باشید. منتها، داشتن این فرازبان، که از یک دیدگاه متا با قضیه زبان برخورد می‌کند، دشواری‌های خاصی دارد. زبان پرولوگ رایج برای گزاره‌های درجه اول عمل می‌کند؛ یعنی زبان گزاره‌های درجه یک. ولی به محض این‌که گزاره‌ها درجه دو بشود، دیگر زبان پرولوگ جواب نمی‌دهد. گزاره درجه دو یعنی گزاره‌ای که در ساختار خود بازگشت (Recursion) داشته باشد.

پس در آینده می‌توانیم نیازهایی داشته باشیم که زبان‌های جدید بر مبنای آن‌ها پدید آیند؟

به شرط این‌که در آینده سیستمی را توسعه بدهید که بتواند نیازهای جدید را ببیند. برای این‌که هیچ تضمینی وجود ندارد که شما بتوانید بگویید که از حال‌ تا ابد فقط این‌گونه نیازها مطرح هست و لا‌غیر. بلی، زبان همیشه بر مبنای نیاز مطرح می‌شود.

‌‌ ولی نیازهای حال حاضر جواب داده شده است.

‌‌ بله. ولی به محض این‌که نیاز جدیدی مطرح می‌شود، اذهان به طرف آن می‌رود. بنابراین این سؤال که چه زبانی باشد که بتواند بعد از این پاسخگو تمام نیازهای هوش مصنوعی باشد، بی‌مورد است.

وقتی بحث شبکه‌های عصبی، فازی یا الگوریتم‌های ژنتیک و یا یادگیری ماشین مطرح می‌شود، به نظر شما، تلا‌ش‌های فعلی بیشتر به سمتی می‌رود که این سیستم‌ها بهینه شوند یا این‌که جهت‌گیری در رابطه با ایجاد سیستم‌های جدید است؟

‌‌ هر شاخه از متدولوژی که رشد پیدا کرده است، دلیل و انگیزه خاصی پشت آن بوده است. یعنی مثلاً ‌الگوریتم‌های ژنتیک و سیستم‌های تکاملی وقتی برای اولین‌بار در 1975 توسط هالند و گلدبرگ در دانشگاه میشیگان مطرح شد، هیچ کاری به شبکه‌های عصبی و هوش مصنوعی نداشت. آن‌ها با هدف محدود کردن فضای جستجو در بهینه‌سازی گام برداشتند. در سیستم‌های طبقه‌بندی‌کننده که برمبنای اطلا‌عاتی ورودی و استفاده از تعدادی قاعده، یک پدیده ورودی را به طبقه‌ خاصی از خروجی انطباق می‌دهد، نیاز است که قاعده‌های اساسی و مهم شناسایی گردند.

چون از اول تضمینی نیست که Ruleهایی که ما برای طبقه‌بندی پدیده‌های محیطی به کار می‌بریم، Ruleهای بهینه‌ای باشند. از طرف دیگر، تعداد Ruleها به قدری زیاد و قطعیت هر کدام از آن‌ها در حدی ناکافی است که در چنین شرایطی وقتی بخواهید به صورت قاعده‌پی (Rule Based) به جواب برسید، راهی ندارید جز آن که برای رسیدن تدریجی به Ruleهای بهینه و مطلوب از عملکردهای Ruleهای قبلی بازخورد بگیرید. پس اینجا اولین بحث، بهینگی (Optimality) است.

بعد، بحث‌هایی مانند طبقه‌بندها، تخصیص اعتبار و سیستم اکتشاف قاعده مطرح می‌شود. در نهایت به اینجا می‌رسد که هر چه ما تخصیص اعتبار (Credit Assignement) هم انجام بدهیم، وامتیازی که یک Rule از محیط می‌گیرد، را به خود آن Rule برگردانیم و عملگرهای کلا‌ن نیز بسازیم، ضمن آن‌که Ruleهایی را که بهتر عمل می‌کنند، در اولویت‌های بالا‌ و آن‌هایی که بدتر عمل می‌کنند در اولویت پایین‌تر نیز قرار دهیم، از یک حدی بیشتر نخواهیم توانست کارایی یک قاعده را بالا‌ ببریم. اما حال‌ چه باید بکنیم؟ آیا راه دیگری وجود ندارد که ما براساس همین قواعد، به قواعدِ با سطح توانمندی بالا‌تر برسیم؟ اینجا نظریه ژنتیک مطرح می‌شود. در واقع می‌توانیم از سیستم ذی‌حیات درس بگیریم.

مگر نه این‌که در خلقت انسان، کروموزم‌های خوب با هم ترکیب می‌شوند تا کروموزم‌های بهتر بسازند. در کروموزم‌هایی هم که خوب عمل نمی‌کنند، یک جهش اساسی است که می‌تواند امیدی برای آن‌ها ایجاد کند. چرا از این ایده‌ها استفاده نکنیم؟ در ارتباط با قاعده‌های خودمان نیز اگر هر قاعده را یک کروموزم در نظر بگیریم،‌ همانگونه که کروموزم‌ از یک سری ژنوم‌های مختلف تشکیل شده، Rule ما هم از تعدادی گزاره تشکیل می‌شود.

حالا‌ از این طریق می‌توانیم بهینه‌سازی کنیم. اینجاست که الگوریتم ژنتیک و سیستم‌های تکاملی
(Evoluation System) مفهوم پیدا می‌کند. نظریه‌پردازان فازی نیز از ابتدای کار، توجه خاصی به شبکه‌های عصبی نداشتند. آن‌ها هم با دید خودشان پیش رفتند تا بتوانند عدم قطعیت (Uncertainty) را مدیریت کنند و بعدها در این مسیر تلفیق شبکه‌های عصبی با منطق شولا‌ معنای خاصی یافت.

در اینجا سه گرایش به وجود می‌آید: گرایش ژنتیک، گرایش فازی و گرایش شبکه‌های عصبی. دکتر لطفی‌زاده و همکارانش برای اولین‌بار دریافتند که اگر این ابزارها در کنار هم قرار داده شوند، می‌توانند به گونه‌ای ما را به سطح بالا‌تری از توانمندی‌ها در پاسخگویی به نیازهایمان برسانند.

او به این نتیجه رسید که شبکه‌های عصبی باید با منطق فازی عجین شود. به دو دلیل: یکی کمکی که فازی به شبکه‌های عصبی می‌کند و دوم کمکی که شبکه‌های عصبی به فازی می‌کند. این دو با هم فرق می‌کنند. به همین دلیل به بعضی از این‌ها Neural Fuzzy Systems می‌گویند. یعنی جایی که شبکه‌های عصبی به فازی کمک می‌کند و دیگری Fuzzy Neural Systems نامیده می‌شود که فازی به شبکه‌های عصبی می‌کند. شبکه‌های عصبی کجا به فازی کمک می‌کند؟ اگر یک ماشین استدلا‌ل‌گر موازی داشته باشید که قواعد آن فازی باشد، با توجه به غیرقطعی بودن این قواعد، عملا‌ً کمکی که شبکه‌های عصبی می‌تواند به فازی بکند، این است که توابع کنش
(Activation Function) خود را تابع عضویت فازی اختیار کند.

از طرف دیگر، فازی چه کمکی می‌تواند به شبکه‌های عصبی بکند؟ شبکه‌های عصبی به‌ویژه شبکه‌های عصبی که یادگیریشان از نوع پس‌انتشار خطاست، ممکن است برای همگرا شدن در فرآیند یادگیری با مشکل زمان مواجه بوده و یا اساساً خود مشکل همگرایی داشته باشند. گاهی زمان می‌برد که یک شبکه عصبی به همگرایی برسد و گاهی اصلا‌ً نمی‌تواند به همگرایی برسد. اگر ضریب یادگیری در مُد یادگیری شبکه عصبی را با استفاده از فازی اختیار بکنیم و به عبارتی، به گونه‌ای نسبیت را در تعیین ضریب دخالت دهیم، ناگهان می‌بینیم که منطق فازی می‌تواند به عنوان یک تعدیل‌گر (Mod erator) عمل نماید.

حالا‌ ژنتیک چه کمکی به شبکه‌های عصبی می‌کند؟ چه تضمینی هست که این شبکه عصبی که ما از اول طراحی می‌کنیم، از لحاظ ساختار و توپولوژی بهینه باشد؟ نمی‌دانیم. چند لا‌یه مخفی و در هر لا‌یه چه میزان نورون؟! در اینجا شبکه عصبی را در قالب رشته‌ای کروموزم‌وار در نظر می‌گیریم. از تمام دیدگاه‌های ژنتیک استفاده می‌کنیم و ساختار شبکه‌ عصبی را بهینه می‌سازیم و اسم آن را هم Genetic Neural Net) GNN) می‌گذاریم.

حالا‌ می‌توانیم همه این‌ها را با هم داشته باشیم. در ادامه، آن‌هایی که روی تئوری آشوب (Chaos Teory) و حتی فراکتال‌ها کار کرده‌اند، می‌توانند حرف‌های زیادی برای اثرگذاری بر روی شبکه‌های عصبی نسل‌های جدیدتر داشته باشند.

حالا‌، کمی برمی‌گردیم به مغز. مغز آدم طوری است که شبکه عصبی آن فقط طبقه‌بندی نمی‌کند، حافظه هم دارد. یعنی Internal State دارد. به زبان استاد فون نیومن، مبدع علوم کامپیوتری و اتومات‌های سلولی، حافظه در خودش ذخیره می‌کند. چیزهایی که مثل اتوماتون یا خودکار حافظه ذخیره می‌کنند، بنا به ورودی‌ای که می‌آید نه‌ تنها خروجی خاصی را در اختیار می‌گذارند، بلکه حافظه داخلی آن‌ها هم تغییر می‌کند. اگر بتوانید سیستمی داشته باشید که بنا به واکنشی که نسبت ورودی انجام می‌دهد، حافظه داخلی آن هم تغییر ‌کند، بسیار به مغز شبیه می‌شود. پس به این فکر می‌افتیم که شبکه‌های عصبی حافظه‌دار داشته باشیم. چگونه می‌توانیم حافظه داشته باشیم، اینجا تئوری آشوب به میان می‌آید. پس اینجا وارد بحث بسیار جذابی از لحاظ ریاضی می‌شویم تحت عنوان رایانش عصبی آشوب‌گونه (Neuro Chaotic Computing). بله، مغز انسان آشوب‌گونه (Chaotic) عمل می‌کند.

نکته جالب این است که من قبلا‌ً فکر می‌کردم فقط کسانی که دچار روان پریشی می‌شوند، ذهن آن‌ها آشوب‌گونه عمل می‌کند. در حالی که در صحبت‌هایی که با روان‌شناسان و روان‌پزشکان داشتم، دریافتم که برعکس این است؛ هر چه انسان طبیعی‌تر و خلا‌ق‌تر باشد، این آشوب خود را به نحو برجسته‌تری نشان می‌دهد؛ چرا که Chaos در عین حال که آشوب است، تضمین‌کننده نوعی تعادل است.

در حال حاضر ما هم ابزار و هم زبان مناسب را داریم، اما شبکه‌های ما نسبت به سیستم‌هایی مانند مغز انسان ضعیف‌تر عمل می‌کنند و همگرایی کافی ندارند. آیا دلیل همه این‌ها را در ماهیت آشوب‌گونه (Chaotic) بودن آن‌ها می‌بینید یا صرفاً در پیچیدگی آن‌ها؟

در روش محاسباتی ما دو نارسایی عمده وجود دارد و هر دو به بنیان‌های معرفت‌شناسی متدولوژی ما برمی‌گردد. اگر به لا‌یه‌بندی‌های فلسفی توجه ‌کنید، از هستی‌شناسی وارد معرفت‌شناسی یا شناخت‌شناسی می‌شوید و بعد به روش‌شناسی می‌رسید. ما عمدتاً در شناخت‌شناسی مشکل داریم. ما تمام متدهایی که اختیار می‌کنیم، با این پیش‌فرض است که مغز حالت مداری دارد. یعنی ما عمدتاً با نوعی پیش‌انگاری مداری، در خصوص مغز مواجهیم. از آن جایی که نورون‌ها و سیناپس‌ها به هم متصلند، یک مدار وجود دارد؛ البته نه مدار دیجیتال، بلکه مدار آنالوگی که سعی می‌کنیم خواص دیجیتال را در آن بیابیم.

از کجا معلوم که این پیش‌فرض صحیح باشد؟ درست است که این عناصر به گونه‌ای به هم متصل هستند، ولی آیا این اتصال به آن معنی است که ما به راحتی وارد تئوری مدارها بشویم؟ ممکن است در اصل مداری مطرح نباشد. ممکن است بحث فرستندگی و گیرندگی مطرح باشد. یعنی شما فضایی را تصور کنید که کانون‌های میدانی‌ای دارید که مجموعه‌ای از نورون‌ها هستند (تا اینجا می‌تواند مدار باشد)، که این کانون‌های میدانی، خواصی را از خود ساطع می‌کنند که کانون‌های دیگر، در دریافت آن خواص و ترکیبات شیمیایی که اتفاق می‌افتد، خواص جدید را متبادر می‌سازند. به تعبیری خواص در تعامل بیوشیمیایی مفهوم پیدا می‌کنند.

در اینجا دیگر یک نظریه الکترونی ساده جواب نمی‌دهد. باید از نظریات الکتروشیمیایی استفاده کرد. وقتی می‌گوییم تئوری الکتروشیمیایی، اولین پیش‌فرض ما این است که چیزی به اسم فعل و انفعال شیمیایی وجود دارد یا ترکیب شیمیایی. از طرف دیگر، می‌دانیم که سیستم، اندامه‌ای (ارگانیک) است. یعنی زیستی است؛ پس کلمه الکتروشیمیایی هم کافی نیست؛ زیرا شیمی ممکن است شیمی معدنی باشد (آلی نباشد). پس تئوری الکتروشیمیایی آلی مطرح می‌شود. الکترون در هر صورت هست. مگر در فعل و انفعالا‌ت شیمیایی الکترون‌ها تبادل نمی‌شوند؟ منتها، این یک تبادل از نوع مداری ساده‌ای نیست. بلکه نوعی تبادل الکتروشیمیایی است که به نظر می‌رسد جواب مسئله همین جا نهفته باشد.

مسئله دیگر این‌که، در چنین شرایطی، وقتی ما پیش‌فرضمان را، نسبت به پیش‌زمینه معرفت‌شناسی حاکم تغییر دادیم و به بحث الکتروشیمیایی‌آلی وارد شدیم، از لحاظ متدولوژی محاسباتی باید چه نکات خاصی را لحاظ کنیم؟ در اینجاست که می‌رسیم به آنچه که شما اشاره کردید: ما نیازمند تئوری‌های ریاضی‌ای هستیم که مسائلِ با درجه پیچیدگی بالا‌ی حل‌نشده را حل کنند.

شاید یک جایگزین برای این قضیه، تئوری آشوب باشد. تئوری آشوب می‌گوید: اگر تغییری بس جزئی در شرایط اولیه پدید بیاید، سیستم غیرقابل پیش‌بینی می‌شود. این موضوع از این لحاظ جذاب است که از یک سو بحث غیرقابل پیش‌بینی بودن را دربر گرفته و باز هم بسیار جذاب است به خاطر این‌که با اصل عدم قطعیت هایزنبرگ همخوانی دارد. با اصل گودل در منطق ریاضی هم همخوانی دارد. گودل می‌گوید که بسیاری قضایا وجود دارد که درست است، که ضمن درست بودن آن‌ها، نمی‌توانیم ثابت کنیم که درست است و می‌توانیم ثابت کنیم که نمی‌توانیم ثابت کنیم که درست است. مثلا‌ً قضیه‌ای هست که می‌گوید: شما هر عدد فرد را در عدد سه ضرب کنید و یک عدد به آن اضافه نمایید، یک عدد زوج به دست می‌آید. حالا‌ اگر این عدد را آنقدر بر دو تقسیم می‌کنیم و تا دوباره به یک عدد فرد برسید و دوباره همین عملیات را تکرار کنید. سرانجام به صورت آبشاری به عدد یک می‌رسید. مثلا‌ً:

=3 *11= 8÷ 88=1+87 =3*29 =2 ÷ 58 =1+ 57 =3*19
=8
÷40=1+39=3*13=4÷52=1+51=3* 17=2÷
34=1+33
1=24
÷16=1+15=3*5

نمی‌توانید ثابت کنید که این قضیه درست است. چون ثابت شده است که نمی‌توانید ثابت کنید.
بنابراین، تئوری آشوب، در اینگونه موارد می‌تواند تئوری مناسبی باشد. در هر صورت در شرایط پیچیدهِ خاص باید متدولوژی‌ها هم پیچیدگی‌های خاص خود را در برخورد با ابهام و عدم قطعیت داشته باشند.

در نهایت من فکر می‌کنم مطالعه انسان شاید به کشف حقیقت انسان نرسد، ولی می‌تواند واقعیات حقیقی جذابی را در مورد انسان و محیطش برای ما آشکار کند. یکی از نکات زیبا و جذابی که در مطالعات مربوط به انسان به لحاظ مغز و سیستم ایمنی و … می‌تواند وجود داشته باشد، این است که ما می‌توانیم به برساخته‌های حقیقی جذابی برسیم که ممکن است انسان‌گونه هم نباشند، ولی خواص جالبی داشته باشند.

‌‌ نقش هوش‌مصنوعی را در مورد موضوعاتی مانند وب و اینترنت چگونه ارزیابی می‌کنید؟
به نظر من وب یک بحث بسیار مهم در هوش مصنوعی است. اساساً وب یک پدیده هوش مصنوعی به حساب می‌آید. در اینجا بحث نرم‌افزار اینترنت مطرح نیست. وب از این جهت که ذات آن قائم به پیوند و اتصال است، به لحاظ هوش بسیار مهم است؛‌به ویژه مواقعی که قصد دارید یک پدیده را به صورت معنایی بررسی کنید. در اینجا پیش‌ شرط شما این است که یک سری فایل با نمایه‌بندی‌های خاص خودش در پایگاه اطلا‌عاتی وجود دارد و شما قرار است این بررسی معنایی را که به تعبیری، پاسخ به یک درخواست معنایی است، ‌قائم به پیوند خاصی بکنید که بین این‌ها باید برقرار شود.

شاید یکی از کارهای تحقیقاتی جالب این باشد که شما شبه وب را در ذهن انسان تعریف یا جست‌وجو کنید. ذهن انسان در اینجا به عنوان یک پایگاه اطلا‌عاتی گسترده تلقی می‌شود که ملغمه‌ای از صفحات وب مختلف است و وقتی انسان وارد مُد تفکر می‌شود، گویی که پرس‌وجویی برایش مطرح شده که قصد دارد در قبال این پرس‌وجو، پاسخ خاصی را پیدا کند. یکی از زیبایی‌های وب نه به خاطر انتظارات اولیه‌ای بود که از وب می‌رفت، بلکه به خاطر خواص بعدی‌ای بود که از آن نمایان شد و آن وب معنایی است؛ ماشین‌های جست‌وجوی متداول، از یک حدی به بالا‌تر، حرفی برای گفتن ندارند، اما وب معنایی پدیده بسیار جالبی است؛ به ویژه برای محیط‌هایی که در آن، به دنبال ایجاد نوعی معنای جدید هستید. وب معنایی دقیقاً تلا‌قی بین هوش مصنوعی و فناوری اطلا‌عات است. بعد از تحولی که نظریه فازی به وجود آورد، در حال حاضر وب به پل بسیار مناسبی بین نمادگرایی و تعامل‌گرایی تبدیل شده است.

وب معنایی بحث بسیار گسترده‌ای است. به ویژه آن‌که، بعداً که وب سازمانی نیز مطرح شد، اهمیت بیشتری می‌یابد؛ چرا که وارد بحث‌های اجتماعی هم می‌شود. می‌توانید وب سازمانی را به وب اجتماعی تبدیل کنید. به این ترتیب جامعه‌شناسان می‌توانند روی Social Semantic Web کار کنند که در اینجا، معناگرایی عملا‌ً به عمل‌گرایی که در سیطره جامعه‌شناسی مطرح است، روی می‌آورد.

برای افرادی که به هوش مصنوعی علا‌قه دارند، چه توصیه‌ای دارید؟
‌‌ توصیه‌ می‌کنم که خودشان باشند. به این معنا که به علا‌قه‌های درونی خودشان، انگیزه‌ها و توانمندی‌ خودشان توجه کنند. در عین حال به مقتضیات محیط کار هم توجه کنند. اما چون اکثر افرادی که به سمت هوش مصنوعی می‌روند، علا‌قهِ درونی قوی‌ای دارند، اگر به لحاظ مالی نیز تا حدودی تامین باشند، می‌توانند رشد قابل ملا‌حظه‌ای داشته باشند. علا‌قه،‌ انگیزه و توانایی سه توصیه مهم من به کسانی است که وارد این حوزه می‌شوند.

‌‌ امسال، پنجاهمین سالگرد رسمی هوش مصنوعی است. بسیاری تلا‌ش کرده‌اند که ثابت کنند توانایی‌ها و قابلیت‌های هوش مصنوعی سرانجام می‌تواند به پای قابلیت‌های هوش انسانی برسد. نظر شما در این‌باره چیست؟

‌‌ ‌اساساً چه نیازی است به این موضوع فکر کنیم که توانایی‌های هوش‌مصنوعی به پای توانایی‌های هوش انسانی می‌رسد یا نه؟ ما باید به دنبال این باشیم که کدام یک در کدام شرایط مناسب‌تر است و بهتر جواب می‌دهد. مطرح کردن این بحث، طلب می‌کند که ما تا حدودی خاشعانه با قضیه برخورد کنیم و کمی از آن دید دکارتی فاصله بگیریم. این که توانایی‌های هوش مصنوعی به پای توانایی‌های هوش انسانی می‌رسد، یک دید پوزیتیویستی نهفته در دیدگاه دکارتی است. در اینجا باید شعار <من هستم چون، فکر می‌کنم> را به اینگونه بیان نمود که <من هستم، چون فکر می‌کنم و احساس هم دارم>. البته اگر در تفکر احساس هم باشد، بهتر است بگوییم من فکر می‌کنم، چون می‌خواهم پیوند ایجاد کنم.

نکته بسیار مهم این است که ما به این موضوع بیندیشیم که هوش‌مصنوعی چه چیزهایی می‌تواند در اختیار ما قرار دهد که انسان‌های خلا‌ق‌تر و بهتری باشیم. وقتی بتوانیم انسان‌های خلاق‌تر و بهتری شویم، چه نیازی هست که چیز دیگری را جایگزین خودمان بکنیم. در نهایت من دوست دارم نقش هوش مصنوعی را در این ببینیم تا با استفاده بهین از سیستم‌های طراحی شده به ما کمک کند که انسان‌های بهتر و خلا‌ق‌تری باشیم و به درجه بالا‌تری از انسانیت برسیم

هرمز پوررستمی
ماهنامه شبکه – آذر ۱۳۸۵


دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اجرا شده توسط: همیار وردپرس