به گزارش وکنا دکتر مهدی همازاده مدرک مهندسی صنایع شیمیایی و همچنین سطح سوم حوزه را دارد. وی کارشناسی ارشد فلسفه دین را از دانشگاه تهران و دکتری فلسفه ذهن را از IPM یا همان مرکز تحقیقات ریاضیات و فیزیک نظری در ایران گرفته است. حضور در آمریکا برای گذراندن فرصت مطالعاتی و همچنین فعالیت به عنوان پژوهشگر موسسه پژوهشی حکمت و فلسفه ایران در حال حاضر از دیگر سوابق اوست. متن زیر حاصل نشستی است که به همت انجمن دانشجویی فلسفه دانشگاه ادیان و مذاهب با حضور این متخصص فلسفه ذهن در اواخر تیرماه سال ۱۴۰۲ برگزار شده است:
آشنایی با فلسفه هوش مصنوعی در حوزه قم تقریباً برابر صفر است
در حوزه هوش مصنوعی در ۲ سال اخیر مباحث زیادی با پروپاگاندای بالا در قم و جامعه علمی کشور شکل گرفته است و این حوزه در ده سال آینده احتمالاً یکی از حوزه های پرچالش برای مدیران و جامعه علمی کشور باشد. موضوعاتی هست که مربوط به اخلاق هوش مصنوعی است مانند اینکه مسئولیتهای تصمیمات هوش مصنوعی به عهده کیست و یا اینکه مالکیت آثار ادبی و هنری یا اکتشافات علمی که هوش مصنوعی انجام میدهد، با کیست؟ و اینکه آیا در دوره آموزش (training) تنبیه یا خاموش کردن هوش مصنوعی جایز هست یا خیر؟ این سوالات و سوالات مشابه دیگر زیر مجموعه فلسفه اخلاق است. بخش دوم سوالات مطرح در این حوزه، پرسش های متافیزیکی و وجودشناسی است که ذیل رشته فلسفه ذهن قرار میگیرد. اینکه آیا ماشین امکان آگاهی و احساسات و عواطف دارد از این دست است. برخی از پرسش های نوع اول به پرسش های نوع دوم بستگی دارد و برعکس. در مجموع باید بدانیم که اگر در بررسی سوالات اخلاقی و متافیزیکی در حوزه هوش مصنوعی تاخیر کنیم باید پاسخهایی که از فرهنگ سایر کشورها برخواسته است را بپذیریم که ممکن است چالش برانگیز باشد.
معمولاً مهندسان و فعالان هوش مصنوعی بیشتر به سوالات نوع اول علاقه دارند چون بسیار کاربردی تر هستند. پرسش های نوع دوم بنیادی تر و چالشی تر هستند و معمولاً مهندسان به خصوص در داخل ایران، علاقه به این سوال ها ندارند. به همین دلیل پروژه های بین رشته ای متافیزیکی در داخل کشور بسیار سخت تعریف میشود در حالی که در خارج از کشور اینطور نیست. اگر به هندبوک کمبریج در حوزه هوش مصنوعی مراجعه کنید که در سال ۲۰۱۴ منتشر شده است، بسیار منبع خوبی است که ۴ فصل دارد و در فصل اول به مباحث فلسفی میپردازد و در ۳ فصل دیگر به فصل اول به طور مرتب ارجاع میدهد. بنابراین باید پروژه هایی تعریف شود که هم پژوهشگران فلسفه و هم مهندسان، درگیر آن باشند که این امر در خارج از کشور بسیار مرسوم است ولی در ایران کمتر به چشم میخورد.
متاسفانه با وجود هیاهوی بسیار زیاد در قم در مورد فلسفه هوش مصنوعی، آشنایی با ادبیات این بحث با تقریب بسیار خوبی صفر است. سخنانی که مطرح می شود بسیار ابتدایی است و بر پایه نکات خیالی است. اگر بخواهیم فلسفه هوش مصنوعی داشته باشیم در ابتدا باید ببینیم که ادبیات موجود در این بحث چیست و در ادامه میتوان انتقادات را هم مطرح کرد و مطالب بیشتری به آن اضافه کرد ولی اساس بحث را باید داشت. ضمن اینکه مباحث فلسفه هوش مصنوعی که در غرب مطرح هست، قابل اعتناست و خیلی از میاحث آن به وجودشناسی برمیگردد یعنی وابسته به هیچ حوزه فرهنگی نیست. متاسفانه اگر با این خط موازی پرت پیش برویم و چیزی به اسم فلسفه هوش مصنوعی شکل بدهیم مایه ریشخند خواهد شد. بو علی سینا هم اگر شیخ الرئیس ماست میگوید که ۴۰ دفعه مابعدالطبیعه ارسطو را خوانده است تا بفهمد و البته بعداً هم نقد کرده و مطالبی را به آن اضافه کرده است.
تاریخچه شکل گیری هوش مصنوعی
سکه هوش مصنوعی (Artificial Intelligence) در سال ۱۹۵۶ در کنفرانس دارتموت[۱] در آمریکا ضرب شد هر چند که در دهه های ۴۰ و ۵۰ میلادی در جنگ جهانی توسط آلن تورینگ این ادبیات تولید شده بود البته نه با اصطلاح هوش مصنوعی. تورینگ مقاله ای دارد به نام «محاسبات، ماشینی بودن و هوش »[۲] . او با کمک به ارتش انگلیس در جنگ جهانی دوم و با قدرت محاسباتی خود توانست کاری کند که پیامهای نیروی هوایی آلمان را کدگشایی کنند و نقش بزرگی ایفا کرد و سرنوشت جنگ جهانی را تغییر داد. اساساً سلطه تورینگ در حوزه هوش مصنوعی از همین جا شروع شد. در این مقاله او یک دستور کار برای نیمه دوم قرن بیستم در هوش مصنوعی داد که در حوزه های مختلف چه باید کرد؟ او در این مقاله آزمونی را مطرح میکند که به آزمون تورینگ[۳] معروف است. اگر یک ماشین بتواند این آزمون را پاس کند به این معناست که دارای تفکر است. این آزمون به این صورت است که شما به عنوان یک بازپرس در مقابل دو اتاق قرار می گیرد که در یکی انسان و در دیگری ماشین قرار دارد و بازپرس نمیداند که انسان یا ماشین در کدام است؟ اگر بعد از سوالاتی که از هر دو می پرسید نتوانید به هیچ وجه حدس بزنید (حتی۶۰-۴۰) که کدام ماشین است به این معناست که ماشین در آزمون هوش قبول شده است. البته در واقع تورینگف هوش را به تفکر تقلیل میدهد و تفکر را به تمایزناپذیری رفتاری یا زبانی تقلیل میدهد.
در هنگام شکل گیری کنفرانس دارتموث امیدواری ها برای رسیدن به هوش مصنوعی قوی (هوش انسانی) بسیار فراگیر بود. برای مثال هربرت سیمون[۴] در سال ۱۹۵۷ میگوید : من نمیخواهم شما VH شوک زده کنم ولی الآن در جهان ماشین هایی وجود دارد که یاد میگیرند، فکر میکنند و خلق میکنند و توانمندی های آنها رو به افزایش است و در آینده نزدیک سطح مسائلی که ماشین میتواند حل کند مانند ذهن انسانی خواهد بود. تورینگ هم پیش بینی کرده بود که در سال ۲۰۰۰ ما شخص (person) خواهیم داشت که ماشین است ولی آگاهی، تفکر و شعور خواهد داشت.
نظریه CTM : نحو زبان را به ماشین بدهید تا معنا را به شما بدهد!
خصوصاً که در دهه ۱۹۷۰ نظریه محاسباتی ذهن (computational theory of mind) هم توسط فیلسوف آمریکایی جری فودور[۵] مطرح و به کار گرفته شد که نظریه پیچیده ایست. با این نظریه دیگر فقط با برنامه نویسی و خروجی سروکار نداریم بلکه معقولیت (rationality) رفتارها و تصمیمات ماشین را هم میشود تولید کرد. نظریه ای که نحو و ساختار زبان (syntax) را کافی میدانست تا معنا (semantic) را هم داشته باشیم. یعنی اگر ساختار زبان را درست تولید کنیم سمانتیک هم به خوبی تولید میشود. این نظریه زبان خاصی برای ذهن تولید میکند. همانطور که برای زبان طبیعی نمادهایی مثل حروف و کلمات داریم نمادهایی برای زبان ذهن داریم که میتواند شلیک های نورونی برای نواحی مختلف مغز باشد. همانطور که مرکب کلمات بر کاغذ با کلمات متناظر هستند و کلمات هم با مصداق خارجی تناظر دارند در ذهن هم هر شلیک نورونی در بخش خاصی از مغز با نماد مورد نظر در زبان ذهن متناظر است و آن نماد هم با معنایی در جهان خارج متناظر است. به طور کلی این نظریه به رویکرد محاسباتی به ذهن دامن زد که اوج آن در دهه ۷۰ بود که معتقد بود که ما میتوانیم به کمک آن یک person با ویژگی های ادراکی داشته باشیم.
البته انتقاد و چالش های فلسفی زیادی به این نظریه وارد شد ولی نهایتاً چیزی که باعث شد تا این نظریه کنار برود این بود که تولیدات هوش مصنوعی در دهه ۸۰ توسط کمپانی های مختلف در سطح جهان، ناکارآمد بود و پاسخگوی سرمایه گذاری گسترده نبود. این دهه به زمستان هوش مصنوعی معروف بود. خوش بینی های اولیه به بدبینی و تمسخر کشیده شد. حتی بعضی از نوبلیست ها مانند نیکلاس ورث[۶] که خالق برنامه نویسی پاسکال هم هست و جایزه تورینگ را برده است، هوش مصنوعی را به طالع بینی نسبت میدادند. اینجا بود که دو رویکرد پیوند گرایی (Conectionism) و بدن مندی (InBodyMent) که در گذشته هم مطرح بود، مطرح شد و تا به امروز هم مصنوعات و تولیدات آنها در حال ارائه و معرفی است. ( در ادامه میتوانید کارگاه برگزار شده توسط دکتر همازاده در مورد نظریه CTM را که در گذشته برگزار شده است، مشاهده کنید)
دو انتقاد معروف به رویکرد محاسباتی در هوش مصنوعی
دو انتقادی که به رویکرد محاسباتی یا کلاسیک هوش مصنوعی مطرح شد و بعدآ هم در برابر پیوندگرایی و بدن مندی به نوعی بازسازی شد و آنها را هم به چالش کشید یکی استدلال هیوبرت دریفوس[۷] فیلسوف پدیدارشناس بود که آن را به مسئله حس عمومی (common sense) و بعضاً آن را به مسئله چارچوب هم میشناسند ولی مسئله چارچوب، دقیقاً این نیست.
این انتقاد او در برابر رویکرد محاسباتی در سال ۱۹۷۰ در مقاله ای با عنوان « What Computers Can’t Do? » و بعد در سال ۱۹۹۰ در برابر رویکردهای جدید در مقاله ای با عنوان « What Computers Still Can’t Do? » بازسازی شد.
چالش فلسفی دوم مسئله اتاق چینی است که توسط جان سر[۸]، فیلسوف مشهور بر علیه رویکرد محاسباتی و در سال ۹۸۰ در برابر رویکرد بدن بندی بازسازی شد.
اشکال اول: بخش زیادی از معرفت انسانی، معرفت مهارتی است نه گزاره ای!
چالش سوم، بیانی فلسفی و فنی از چیزی است که بعضاً مردم کوچه و بازار هم در مورد هوش مصنوعی میگویند. دریفوس میگوید که بخش قابل توجهی از معرفت انسانی، معرفت گزارهای (knowledge of that) نیست بلکه معرفت مهارتی (knowledge of how) است. مثلاً برای یادگیری دوچرخه سواری اینطور نیست که مجموعه ای از گزاره ها را از روی دفترچه قدم به قدم انجام دهید و بعد دوچرخه سواری را یاد بگیرید. بلکه شما به نحو سابجکتیو تجربه میکنید تا دوچرخه سواری را یاد بگیرید. در واقع یک مهارت پیشامفهومی است که قابلیت تبدیل به گزاره ها را ندارد. بخش قابل توجهی از توانایی های بشر به همین شکل است.
گزاره ها مستقل از کانتکست نیستند
نکته دیگر این است که این گزاره ها اساساً مستقل از کانتکست (context free) نیستند. یعنی اینطور نیست که ما یک تعدادی از گزاره های انتزاعی را داشته باشیم و به ماشین بدهیم و به او بگوییم که هر گاه با موقعیت الف روبرو شدی، آنگاه این گزاره را عمل کن و خروجی بده. برای مثال وقتی فردی دنبال فرد دیگری میدود ممکن است با او شوخی داشته باشد یا بخواهد او را دستگیر کند. در هر کدام از این حالات، رفتاری که در برابر یک محرک باید داشته باشیم کاملاً میتواند متفاوت باشد. این کانتکست به نحو آنی درک میشود.
امید واهی مهندسان به حافظه های بزرگ
در ابتدا موضع مهندسان این بود که مشکلی نیست و مشکل فقط مشکل حافظه است. در صورت وجود حافظه های بزرگ، میتوانیم تمام موقعیت های ممکنی که احتمال دارد ماشین با آنها مواجه شود را حدس بزنیم و پاسخ را برای ماشین برنامه نویسی کنیم. در نتیجه زمانی فرا میرسد که دیگر هیچ موقعیتی نداریم که برای آن خروجی تعریف نکرده باشیم.
ولی بعدها با اشکالاتی که دریفوس و بقیه مطرح کردند آرام آرام مهندسان هم تایید کردند که اینها از سنخ برنامه نویسی نیست و گزاره ای نیست. برای مثال یک معلم مهد کودک میداند که برای هر یک از کودکان در هنگامی که رفتارهای مختلف نشان میدهند چه عکس العملی نشان بدهد. اگر امیر پای خود را به زمین بکوبد میداند که چه عکس العملی باید نشان دهد و یا اگر رضا این کار را بکند میداند که عکس العملش در مقابل او باید متفاوت باشد. حتی بر حسب اینکه چه زمانی این کار را میکنند معلم مهدکودک ممکن است عکس العمل متفاوتی را لازم بداند ولی ماشین چطور میخواهد همه این فاکتورها را رعایت کند؟ و این مسائل قابل تعریف برای ماشین نیست. این اشکال دریفوس بسیار پرارجاع است.
اشکال دوم: اتاق چینی
اشکال دوم در برابر رویکرد کلاسیک، آزمون فکری اتاق چینی (Chinese Room) بود که توسط جان سر منتشر شد. مثالی که جان سر می زند جالب است. او میگوید فرض کنید من که زبان مادری ام انگلیسی است و هیچ درکی از زبان چینی ندارم در یک اتاق قرار بگیرم که فقط با یک پنجره با بیرون ارتباط دارد. در کنار من هم یک دفتر چه زبان چینی باشد که تمام حروف و کلمات و جملات چینی را داشته باشد و به من بگوید در صورت دیدن هر جمله چینی، در مقابل باید چه جمله و نمادی را از پنجره به بیرون بدهی. مثلاً در مقابل ورودی «سلام. حالت چطوره؟» بگوید نمادهای عبارت «خوبم» را در خروجی نشان بده. حال اگر یک فرد چینی از بیرون از اتاق از طریق پنجره جملات و نمادهای خود را به داخل بدهد و من هم به کمک دفترچه پاسخ مناسب را برای او از پنجره به بیرون بدهم، فرد چینی تصور خواهد کرد که من زبان چینی را بلدم در حالی که من هیچ درکی از زبان چینی ندارم! وی میگوید رویکرد محاسباتی هم به همین شکل است. یعنی ماشین ورودی ها را میگیرد و خروجی ها را میدهد ولی هیچ درکی به معنای سابجکتیو نخواهد داشت. یعنی این کار به یادگیری ماشین (machin learning) نمی انجامد. چون یادگیری جنبه اول شخص و پدیداری دارد. البته در فلسفه ذهن در این موضوع که آیا فقط احساسات و عواطف جنبه پدیداری دارند و یا همه حالات ذهنی مانند یادگیری، جنبه پدیداری دارند؟ البته با استدلالات قوی که شده است و بنده هم قبول دارم، یادگیری هم حالت پدیداری دارد؟ حالاتی مانند خشم و احساسات معمولاً به جنبه پدیداری آنا سناخته میشوند ولی باورها معمولاً به محتوای خود شناخته میشوند که شاید این اختلاف از اینجا شکل گرفته باشد. در حالی که باور به یک گزاره و اذعان به آن هم حالتی هست که هر کس در درون خود تشخیص میدهد. مثلا اگر شما یک گزاره ای را به زبان انگلیسی به من بگویید حالتی در من به وجود نمی آید ولی اگر همان را به زبان فارسی بگویید، به محض اینکه آن را بفهمم یا باور کنم، حالت خاصی در ذهن من ایجاد خواهد شد. معتقدان به رویکرد اول هوش مصنوعی معتقد بودند که ماشین میتواند فکر کند و یادگیری را به همین معنا داشته باشد.
این استدلال سرن موجب شد که تعداد زیادی از مقالات در این حوزه نوشته شود و بحثهای زیادی شکل بگیرد.
در همین ماجرای کرونا چینی ها یک رباتی را به نام سوفی درست کردند که با بیماران کرونایی که همراه نداشتند صحبت کند و همدردی کند. این سوال فلسفی در مورد آنها وجود داشت که وقتی سوفی میگوید که درد تو را میفهمم و همدردی میکند واقعاً پدیده درد را درک کرده است؟ چون وقتی یک فرد انسانی با ما همدردی میکند این در ذهن ما هست که درد ما را قبلاً به نحوی درک کرده است و می فهمد. ولی ربات که درکی از درد نداشته است؟!
رویکرد بدنمندی
آزمایشگاه های دانشگاه های ام آی تی و استنفورد و کشورهای آمریکای شمایل بعد از زمستان هوش مصنوعی و از اواخر دهه ۸۰ به سمت ساخت حیوانات و انسان های مصنوعی هجوم بردند که با نظریه بدن مندی شروع شد. البته رشته هایی مانند ژنتیک ملکولی هم در این میان تأثیرگذار بود. این رویکرد خیلی از کاربردها را دارد مانند ساخت رباتی که میتواند آشپزخانه را تمیز کند یا خریدها را انجام دهد و جنس بهتر را انجام دهد. ولی بحث همچنان بر روی جنبه روانشناختی و پدیدارشناختی ربات ها برقرار بود. رویکرد بدنمندی میگوید که اساساً ذهن داخل خمره نداریم و مغز به تنهایی نمیتواند هوش داشته باشد و از محیط، درکی داشته باشد. ما با بدن خود یک مواجهه حسی-حرکتی با محیط داریم و ورودی و خروجی هایی که از محیط میگریم در درک ما کاملاً تأثیرگذار است.
داخل پرانتز بگویم که دریفوس وقتی که به سمت رویکرد دیجیتال رفته بود دنبال بازنمایی محیط بود و محیط را برای ماشین بازنمایی میکرد. برمبنای رویکردی که از زمان افلاطون و ارسطو و همچنین در زمان دکارت وجود داشت، ما بازنمایی از محیط داریم. یعنی محیط یک چیزی هست که در درون عالم سابجکتیو ما نمادها و سمبلهایی هستند که آنها را بازنمایی میکند. این موضوع در فلسفه اسلامی هم به وجود عینی و وجود ذهنی تعبیر میشود.
از زمان هایدیگر و هوسرل رویکرد پدیدارشناسی در فلسفه قاره ای به این سمت رفته بود که بهترین بازنمایی جهان خودش است و چرا ما باید به سراغ نمادهایی برویم که جهان را برای ما بازنمایی کنند؟ ما باید مستقیما با خود جهان سروکار داشته باشیم.
به طور کلی یک نقد فلاسفه به مهندسان این است که شما چرا ایده های فلسفی را چیپ و مبتذل میکنید؟ میگویند شما مهندسان در بحث هوش مصنوعی کلاسیک، بازنمایی محیطی را در قالب برنامه نویسی بسیار ساده کردید و گفتید که ماشین میتواند یادگیری و تفکر داشته باشد فقط بر اساس اینکه تمایزناپذیری زبانی دارد یا خروجی های زبانی از خود نشان میدهد. فلاسفه میگویند در رویکرد بدن مندی هم دوباره هم همین کار را دارند میکنند یعنی به دنبال ساخت رباتی هستند که موتور حسی-حرکتی انسان را ماشینیزه کند و خروجی های رفتاری را برای ورودی های محیط تعریف کند بدون اینکه اساساً درکی از محیط اتفاق بیفتد. مهندسان میگفتند ما تورینگ تست (TT) را باید توتال تورینگ تست (TTT) کنیم و باید علاوه بر تمایزناپذیری زبانی به دنبال تمایزناپذیری رفتاری هم باشیم.
بنابراین دوباره همان استدلال های فلسفی که آنجا وجود داشت اینجا هم وجود دارد. خواستم اول بگویم که در تحولاتی که دارد اتفاق می افتد چقدر حوزهی فنی با حوزهی فلسفی مرتبط هست و ایدههای فلسفی چقدر دارد به حوزهی ساخت و تولید در هوش مصنوعی مرتبط میشود و بالعکس.
رویکرد پیوندگرایی
در رویکرد پیوندگرایی گفتند اساسا دیگر بر پایه حافظه رفتار نخواهیم کرد و برنامههایی نمینویسیم که ذخیره روی کامپیوتر بشود و بعد این برنامه ها به تعداد زیادی گزاره مراجعه کنند. ما یگ دوره کارورزی(TRAINING) تعریف میکنیم و در این دوره ماشین برای یک تسک خاصی کارورزی میشود و بعد که با حدس و خطا به پاسخ بهینه رسید او را رها میکنیم در محیط. حالا با موقعیتهای جدیدی مواجه میشود و خودش میتواند تشخیص دهد. مثلاً صد تا موقعیت را در دورهی کارورزی تمرین کرده است و پاسخهای بهینه را هم برای هر موقعیتی توانسته است که پیدا کند حال در موقعیت جدید که ما دیگر برای آن برنامهنویسی نمیکنیم او با محیط مواجه میشود و برای موقعیت ایکس، تشخیص میدهد که این موقعیت ایکس از نوع موقعیت یک، دو، سه یا تا الی صد است؟ مثلا تشخیص میدهد که از سنخ موقعیت ۸۱ است. حال پاسخ موقعیت ۸۱ را که در دوره کارورزی تایید شده بود از خودش بروز میدهد.
دریفوس در مقاله دوم (What Computers Still Can’t Do?) می پرسد از یک نوع بودن و از یک صنف بودن موقعیت جدید ایکس با موقعیت مثلا ۸۱ دوره کارورزی چطور قابل تشخیص است؟ تعمیم موقعیتهای دوره کارورزی به موقعیتهای جدید چطور تشخیص داده میشود؟ دریفوس دوباره همه آن مباحث را بازسازی کرده است. چطور ماشین میخواهد و با مراجعه به چه چیزی میخواهد بگوید که این موقعیت از سنخ موقعیت هشتاد و یک است و موقعیت ۸۲ نیست و اصلاً چرا موقعیت صد و یکمی نباشد؟
پیوندگرایی فواید جدی داشت و همین امروز هم کنفرانسهای زیادی در حوزهی هوش مصنوعی به پیوندگرایی اختصاص دارد. از لحاظ کاربردی مفید است و آمد به مغز مراجعه کرد و گفت باید شبکه نورونی مصنوعی داشته باشیم چون مغز یک مسیر تک رشتهای ندارد که یک ورودی بیاید و بعد یک خروجی بگیرد که اگر ما یک جایی خطا داشته باشیم کل خروجی به فنا برود. مغز، موازی[۹] هست و محاسبات و پردازش اطلاعات در تعداد زیادی از مسیرهای موازی در نورونهای ما دارد صورت میگیرد و اگر در یکی از این مسیرها یک افول یا یک چالشی یا یک افتی در عملکرد نورونی اتفاق بیفتد در مجموع خروجی مغزی همچنان یک خروجی مناسبی است. رویکرد پیوند گرایی مسیرهای موازی و یک سری گرهها تعریف کرد. ورودی به گره یا همان بار، بین صفر تا یک هست اگر از یک آستانهای بالاتر برود یک تعریف میشود و پایین تر باشد، صفر تعریف میشود. یک یعنی شلیک و صفر یعنی عدم شلیک. مثل همان اتصالات نورونی که وقتی که آستانهی ولتاژ در یک نورون به یک حدی میرسد تخلیه و شلیک نورونی صورت می گیرد سپس به آکسون ها در سر رشته های عصبی میرسد و طبق راهبری که پروتئین انجام میدهد به یک یا چند تا از نورونهای خاص مجاور وصل میشود و همین اتصال هدفمند ادامه پیدا میکند تا شلیک ها و در واقع شبکهی اتصالات نورونی انجام بشود. همین اتفاق در هوش مصنوعی با صفر و یک بازسازی شده است. یعنی مجموعه ورودیها یک باری را شکل میداد این بار اگر یک بود خروجی گره شلیک بود و میرفت برای گره بعدی، اگر نبود خاموش میشد و گره دیگری این کار انجام میداد.
بنابراین رویکرد پیوندی در مجموع کارکردهای خوبی داشت و آسیب به هر قسمت، کارکرد شبکهی مصنوعی را در مجموع زیر سوال نمیبرد. در عین حال چون همچنان بر پایه محاسبات هست خیلی از چالش های فلسفی که در برابر رویکرد محاسباتی علیالاصول اقامه شد اینجا هم بازسازی میشود و شده است. یعنی همچنان اشکال دریفوس بازسازی شده و اشکال مغز چینی که ند بلاک[۱۰] مطرح کره است، دوباره قابل بازسازی است.
چهار رویکرد در انجیل هوش مصنوعی
هوش مصنوعی چهار رویکرد کلی در ساخت و تولید دارد. کتابی هست به نام Artificial Intelligence and Modern Approach که انجیل هوش مصنوعی است و یک صفحهی جدی در دانشگاه برکلی برای خود دارد و بیش از هزار صفحه هست و یکی از منابع عمده هوش مصنوعی است. اولین رویکرد رفتار شبیه انسان (acting humanly) است که همان رویکردی است که آزمون تورینگ هم داشت. دیگری رویکرد تفکر شبیه انسان(thinking humanly) یا مدل سازی های شناختی (cognitive modeling) هست که به رویکرد کلاسیک و محاسبات تمایل دارد. دیگری هم رویکرد رفتار رشنال(acting rationally ) هست و دیگری رویکرد تفکر رشنال ( thinking rationally ). هر کدام از اینها نظریهپردازان دارد و ماشینهایی که دارد ساخته میشود. چه رویکرد رفتارگرا و چه رویکرد تفکرگرا به یک نظریهای برآمده از فلسفه ذهن نظر دارند. اگر رفتارگرا باشند به نظریهی بدن مندی و اگر تفکرگرا باشید به نظریه محاسباتی نظر دارند. چیزی که مهم هست این است که ما اصلاً در این رویکردها آگاهی به معنای consciousness نداریم. جنبهی Access Consciousness با جنبه Phenomenal Consciousness متفاوت است. بلاک و چالمرز به نوعی به این موضوع اشاره میکنند. ما یک حوزه داریم که اطلاعاتی و access هست. یک جنبه از آگاهی است که برای برای هدایت رفتار، تصمیم گیری، در دسترس بودن گزارشهای شفاهی و … استفاده میشود. انسان وقتی که آگاه باشد میتواند رفتار خودش را کنترل کند، گزارش شفاهی از رفتار خودش بدهد و تصمیمگیریهای درستی داشته باشد اینها همه خروجی هستند. اینها به تعبیر دیوید چالمرز در مقایسه با مسئله دشوار در آگاهی، مسائل آسانی هستند چرا که علوم شناختی با متدولوژی که دارند میتوانند این مسایل را حل کنند ولی جنبه ای از اگاهی هست که فنومنال، سابکتیو و تجربه ای است و این دو نباید خلط شود. یعنی اگر پاسخ ماشین درست است نتیجه نگیریم که یادگیری اول شخص دارد آگاهی به این معنا در هیچکدام از این چهار رویکرد عمده نیست. البته در دهههای اخیر بحث artificial consciousness جدی شده است و رویکردهایی هم برای آن پیشنهاد شده است. برخی نویدبخش است و بعضی دوباره بازگشت به مسائل قبلی میکند.
مقاله ناگل با عنوان «حس و حال خفاش بودن چگونه است؟»
ناگل[۱۱] یک مقاله دارد به اسم حس و حال خفاش بودن چگونهاست؟ [۱۲] که متعلق به دهه ۱۹۷۰ است که نقطهی عطف طرح بحث consciousness در فلسفه تحلیلی معاصر است. میدانید که خفاشها اساسا ادراک بصری ندارند و محیط خودشان را از طریق شنوایی درک میکنند یعنی یک سری پالسهایی برای محیط میفرستند و بر اساس طول موج و شدت و ضعف تکانههایی که دریافت میکنند میتوانند تشخیص بدهند که مثلا ابعاد و اشکال آبژههای محیطی چیست؟ ناگل میگوید فرض کنید خفاش را با یک قرقی که ادراک بصری دارد، در یک جنگل انبوه رها کنیم این هر دو به نحو مشابه از لابهلای درختان و موانع عبور میکنند و رفتار تقریباً یکسانی دارند ولی حتماً جهان سابجکتیو خفاش که دارد بر اساس شنوایی، محیط خودش را درک میکند متفاوت است با جهان سابجکتیو پرندهای که با بینایی محیط را درک میکند با اینکه رفتارهایشان یکسان است. دانشمندان در حال حاضر مغز خفاش را از جهات مختلف تحلیل کرده اند ولی آیا با این تحقیقات توانسته اند به آن چیزی که ورای دسترسیهای مفهومیست، برسد؟ آیا شما حس و حال درونی خفاش را در هنگامی که دارد از لابهلای درختان عبور میکند، درک میکنید؟ این جنبهی سوم شخص است و ما مغز خفاش و سیستم شناختی او را آبژه میکنیم ولی آگاهی او یک جنبهی اول شخص دارد و ما آن را درک نمیکنیم و این مسئله سخت ماست.
عالم درونی و تخیل ماشین
در هوش مصنوعی پیشنهاد شد که برای داشتن آگاهی مصنوعی باید ماشین یک عالم درونی داشته باشد. این عالم درون را یک تقلیل ابتدایی دادند و گفتند باید تخیل (imagination) داشته باشد و تصورسازی کند. اگر ما بتوانیم ماشینی داشته باشیم که تصورسازی و تخیل از محیط داشته باشد پس این ماشین دارای آن عالم سابجکتیو هست. سپس تخیل ماشین را دوباره یک مرتبهی دیگر تقلیل دادند. اگر ماشین بتواند تعاملات خودش و ورودیهای حسی از محیط و خروجیهای حرکتی خودش را بازسازی تصویری کند – البته نه آن چیزی که قبلا انجام داده است چون آن که حافظه است- این ماشین تصویرسازی دارد پس جهان درونی دارد و آگاهی مصنوعی ساخته میشود. همین الان سراغ این نظریه رفته اند و دارند تولید میکنند و نظریات مشابهی در ادبیات بحث وجود دارد. این کلا ذیل رویکرد مدل کردن آگاهی (machin modeling of conscious) قرار دارد. البته این رویکردها نویدبخش نیستند یعنی شما دوباره دارید میروید به سمت یک خروجی رفتاری که میتواند از رویکرد محاسباتی یا هر چیز دیگری حاصل شود و در عین حال بدون اینکه ماشین، درکی از ادراک و تعامل محیطی داشته باشد.
ایمرجنتیسم؛ رویکرد امیدوار کننده در هوش مصنوعی
رویکردی که مقداری امیدوارکننده تر هست میخواهد سراغ یک شبکهی نورونی شبه زیست شناختی برود و در سال دو هزار و هفده مطرح شده است. کتاب تاگل و همکارش در سال ۲۰۱۹ در صفحات ۳۰ به بعد به این رویکرد اشاره کرده است. این رویکرد میگوید باید به جای معادل سازی ریاضی و برنامه نویسی به سراغ جایگزینهای معدنی و اجزای بیولوژیک از آگاهی برویم و در شبکههای مصنوعی، ماده را هم دخیل کنیم و فقط به فرایند انتزاعی محاسبات نپردازیم و ماده سیستم و سی پی یو هم برایمان مهم باشد. اینجور نیست که بین تراشه های الکتریکی در کامپیوترها و نورونها در انسانها، تفاوتی نباشد.
ناتوانی دوآلیزم سینوی-دکارتی برای توضیح آگاهی ماشین
آگاهی طبق دوآلیزم سینوی-دکارتی بر پایهی Substance dualism است یعنی جوهری مستقل از ماده و فیزیک داریم که روح هست و موطن آگاهی آنجاست و اساساً روح که جوهر مجرد است، درک و احساسات دارد. به تعبیر بوعلی آگاهی فعل بالذات نفس است و نفس، یک فعلی هم دارد که در نسبت با بدن انجام میدهد که تدبیر بدن است ولی آگاهی اساسا فعل بالذات روح است و در واقع بدن در بهترین حالت صرفاً یک زمینه سازی میکند. اگراینطور باشد شما حتی اگر که سراغ ساخت شبکههای نورونی شبه زیستشناسی بروید و به سمت نوروبیولوژی و بیوشیمی هم بروید و سی پی یو پردازشگر را هم اینچنین بسازید باز هم همچنان با رویکرد کلاسیک دوآلیزم خواهید گفت که ما چیزی به عنوان آگاهی در این ماشین نخواهیم داشت. آگاهی چیزیست که به تعبیر بوعلی حادث میشود و حدوث، یک حدوث روحانی است. در فلسفه اسلامی وقتی که جنبههای متضاد چهارگانه مزاج در بدن به یک حدی از تعادل رسید بر پایهی آن حد تعادل، یک نفس غیر فیزیکی حادث میشود و با آن ارتباط برقرار میکند. ولی ولی مشکل در حوزه هوش مصنوعی این است که ما اصلا این را نداریم و تازه آن هم به امر الهی اتفاق میفتد.
ارتباط نظریه حدوث جسمانی روح ملاصدرا با ایمرجنتیسم
حال اگر شما بروید به سمت حدوث جسمانی که نظریه حکمت متعالیه است، در یک مرتبهی خاصی از حالت جنینی که یک سطح خاصی از پیچیدگیها را در سطح نوروفیزیولوژی دارید آگاهی از آن جهش ( یا همان emerge در فلسفه ذهن) میکند کما اینکه سطح مولکولی از پیچیدگیهای سطح ذرات بنیادین ایمرج میکند و مولکولها شکل می یابند و سطح سلولی هم از پیچیدگیهای سطح مولکولی ایمرج میکند و بیولوژی شکل می یابد. هر کدام از این سطوح را یک علم خاصی متکفل هست. ذرات بنیادین را فیزیک، سطح مولکولی را شیمی و سطح سلولی را زیست شناسی بر عهده دارند. به همین ترتیب یک سطحی از پیچیدگی هم که در سطوح نوروفیزیولوژی پدید بیاید به سطح منتال و روانشناسی جهش میکند.
این چیزی شبیه به نظریه حدوث جسمانی است که ملاصدرا مطرح میکند که البته سطح جسمانی را صدرا به مثابه یک جوهر واحد مطرح میکند که متصل هست و دو مرتبه مادی و غیر فیزیکی دارد. البته ایمرجنتیستها به آن ویژگی (property) میگویند. اگر این تفاوتها را کنار بگذاریم اصل ماجرا قابل تشابه است. در هر صورت اگر شما به نحوی قائل به حدوث جسمانی روح شوید، که از سطوحی از پیچیدگی در نوروفیزیولوژی یک آگاهی پدید می آید و جهش میکند و آن هم میتواند بسط وجودی و شدت وجودی پیدا کند و حرکت جوهری داشته باشد و … در مجموع علیالاصول قابل رد نیست که اگر شما یک شبکهی نورونی مصنوعی هم داشته باشید که پایهی بیوشیمی داشته باشد ستونی از آگاهی از آن جهش میکند. البته نمیگوییم تمام آگاهی.
ممکن است با این رویکرد در آینده شما ماشینهایی داشته باشید که سطوحی از آگاهی و عواطف مصنوعی را داشته باشند. البته اساسا علت فاعلی چیزی مجزا از علت مادی و صوری است. ما در مورد علت مادی و صوری بحث میکنیم و منافاتی با این موضوع ندارد که علت فاعلی آن خداوند باشد. همه این علوم اینطور است و قوانین طبیعی متکفل بیان چند و چون تحولات هستند. چون بعضی میگویند که باید خداوند، آگاهی را افاضه کند که باید بگوییم این حرف با آن هیچ منافاتی ندارد. باید بگویم کسانی که روی این موضوع خیلی محکم می ایستند و این آگاهی ماشین را رد میکنند باید متوجه باشند که ممکن است فردا اتفاقاً این آگاهی رخ بدهد و آن وقت پشتوانه های الهیاتی صحبت آنها هم رد شود. بنابراین در مجموع به لحاظ فلسفی هم همانطور که عرض شد میتوان برای این رویکرد جدید، مبنایی را در نظر گرفت.
در خاتمه عرایض خود باید عرض کنم که اگر خودمان روی این موضوع جدی باشیم چرا خودمان لابراتورهای هوش مصنوعی بر این پایه در کشور راهاندازی نکنیم؟ چرا با این رویکرد به سمت تولید آگاهی مصنوعی نرویم؟ الی ماشاالله میشود پیامدها و آثار امنیتی، اقتصادی، اجتماعی و غیره برای تولید آگاهی مصنوعی نام برد. بسیار حوزهی مهیب و مهمی است و خوب است که بخشی از تحقیقات در کشور ما به این موضوع اختصاص یابد.
سوال : در احادیث و روایات داریم که موجودات جهان مانند درختان هم شعور دارند و سخن میگویند. علم جدید در این حوزه چه میگوید؟
رویکردی در فلسفه ذهن معاصر داریم به نام Panpsychism یا همه رواندار انگاری که دیوید چالمرز از لیدرهای فلسفه ذهن، آن را پیش می برد. از میان نوروساینتیست ها هم کریستف کخ (Christof Koch) که از چهره های مطرح در نوروساینس است ایمرجنتیسم را کنار گذاشته است و با این نظریه همگام شده است. این نظریه قائل به این است که آگاهی یک ویژگی بنیادین جهان است و همه ذرات عالم از آن بهره مند هستند. این رویکرد همانطور که در فیزیک، جرم بنیادین است در فلسفه ذهن، اگاهی را بنیاد جهان میداند که بر اساس چیز دیگری تبیین نمیشود. البته اشکالاتی به آن مانند مسئله ترکیب ( combination problem ) وارد شده است.
[۱] . Dartmouth
[۲] .computing,machinery and intelligence
[۳] . Turing test
[۴] . Herbert, A. Simon
[۵] . Jerry Fodor
[۶] . Niklaus Emil Wirth
[۷] . Hubert Dreyfus
[۸] . John Searle
[۹] .Paraller
[۱۰]. Ned Block
[۱۲]. What is it like to be a bat?