Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url url
  1. Weltenzyklopädie
  2. فلسفه هوش مصنوعی - ویکی‌پدیا، دانشنامهٔ آزاد
فلسفه هوش مصنوعی - ویکی‌پدیا، دانشنامهٔ آزاد
از ویکی‌پدیا، دانشنامهٔ آزاد
آیکون ترجمهٔ انگلیسی به فارسی
این مقاله دقیق، کامل و صحیح ترجمه نشده و نیازمند ترجمه به فارسی است.

کل یا بخشی از این مقاله به زبانی به‌جز زبان فارسی نوشته شده‌است. اگر مقصود ارائهٔ مقاله برای مخاطبان آن زبان است، باید در نسخه‌ای از ویکی‌پدیا به همان زبان نوشته شود (فهرست ویکی‌پدیاها را ببینید). در غیر این صورت، خواهشمند است ترجمهٔ این مقاله را با توجه به متن اصلی و با رعایت سیاست ویرایش، دستور خط فارسی و برابر سازی به زبان فارسی بهبود دهید و سپس این الگو را از بالای صفحه بردارید. همچنین برای بحث‌های مرتبط، مدخل این مقاله در فهرست صفحه‌های نیازمند ترجمه به فارسی را ببینید. اگر این مقاله به زبان فارسی بازنویسی نشود، تا دو هفتهٔ دیگر نامزد حذف می‌شود و/یا به نسخهٔ زبانی مرتبط ویکی‌پدیا منتقل خواهد شد.


اگر شما اخیراً این مقاله را به‌عنوان صفحهٔ نیازمند ترجمه برچسب زده‌اید، لطفاً عبارت
{{جا:نیاز به ترجمه|صفحه=فلسفه هوش مصنوعی |زبان=نامشخص |نظر= }} ~~~~
را به پایین این بخش از فهرست صفحه‌های نیازمند ترجمه به فارسی بیفزایید. لطفاً

{{جا:هبک-ترجمه به فارسی|1=فلسفه هوش مصنوعی}} ~~~~
را نیز در صفحهٔ بحث نگارنده قرار دهید.
این مقاله نیازمند ویکی‌سازی است. لطفاً با توجه به راهنمای ویرایش و شیوه‌نامه، محتوای آن را بهبود بخشید.
همچنین ببینید: اخلاق هوش مصنوعی
فلسفه هوش مصنوعی

هوش مصنوعی پیوندهای نزدیکی با فلسفه دارد زیرا حوزه هوش مصنوعی به دلیل هم مرزی و بینارشته ای بودن دارای تداخل ها و انطباق های زیادی با مباحث فلسفی شده است که هم پوشانی با مفاهیم متعددی مانند هوش، عمل، خودآگاهی، معرفت‌شناسی و حتی اختیار باعث شده است تا حوزه مستقلی به نام فلسفه هوش مصنوعی محقق شود.[۱] علاوه بر این، تکنولوژی درصدد ایجاد حیات مصنوعی (حیوانات، انسان‌ها یا حداقل مخلوقات مصنوعی) است، به همین دلیل فلاسفه توجه شایانی به هوش مصنوعی نشان می‌دهند.[۲] این عوامل در کنار نگرانی ها و آینده پژوهی ها درباره سناریوهای متفاوت تکامل هوش مصنوعی در آینده، باعث ظهور فلسفه هوش مصنوعی شده است.

برخی پژوهشگران پیرامون نادیده گرفتن فلسفه توسط جامعهٔ هوش مصنوعی هشدار داده‌اند. این پژوهشگران بر لزوم تفکر فلسفی دربارهٔ موضوعات مورد بحث در هوش مصنوعی و اهداف آن تأکید می‌کنند.[۳]

مطالعهٔ فلسفهٔ هوش مصنوعی می‌کوشد تا پرسش‌هایی از این دست را پاسخ دهد:

  • آیا یک ماشین می‌تواند هوشمندانه عمل کند؟ آیا آن ماشین قادر به حل همهٔ مسائلی که انسان با فکر کردن آن‌ها را حل می‌کند، هست؟
  • آیا هوش انسان و هوش ماشین یکسان هستند؟ آیا در اصل، مغز انسان یک رایانه است؟
  • آیا ماشین می‌تواند ذهن، حالات ذهنی و خودآگاهی مشابه انسان داشته باشد؟ آیا می‌تواند ماهیت اشیا را احساس کند؟

چنین پرسش‌هایی بیانگر علایق متفاوت پژوهشگران هوش مصنوعی، فلاسفه و دانشمندان علوم شناختی است. پاسخ‌های ارائه شده به این پرسش‌ها به تعریف واژه‌های هوش و خودآگاهی و مشخص شدن اینکه دربارهٔ چه ماشینی بحث می‌شود، بستگی دارد.

گزاره‌های مهم در فلسفهٔ هوش مصنوعی شامل این موارد می‌شوند:

  • «قرارداد مودبانه» تورینگ: اگر ماشینی به هوشمندی یک انسان رفتار کند، آن گاه به هوشمندی یک انسان است.[۴]
  • گزاره دارتموث: «هر جنبه ای از یادگیری یا هر ویژگی دیگری از هوشمندی می‌تواند چنان به دقت توصیف شود که ماشینی بتواند برای شبیه‌سازی آن ساخته شود.»[۵]
  • فرضیه سیستم نماد فیزیکی (به انگلیسی: Physical symbol system) نیول و سایمون: «یک سیستم نماد فیزیکی استطاعت لازم و کافی برای عمل هوشمند کلی را برخوردار است.»[۶]
  • فرضیه هوش مصنوعی قوی سرل: «کامپیوتر به درستی برنامه‌ریزی شده با ورودی‌ها و خروجی‌های صحیح بدانگونه دقیقاً به همان معنا که انسان‌ها ذهن دارند ذهنی خواهد داشت.»[۷]
  • مکانیسم هابز: «زیرا که 'تعقل' [reason] … چیزی نیست جز 'محاسبه' [reckoning]، که جمع و تفریق کردن است، [جمع و تفریق کردنِ] عواقب اسامی کلی‌ای که به منظور 'نشانه‌گذاری' [marking] و 'معنی‌بخشیدن' [signify] افکارمان بر آن‌ها توافق شده است.»[۸]

آیا یک ماشین (یا ربات) می‌تواند هوشمند باشد؟

[ویرایش]

آیا ممکن است روزی ماشینی ساخته شود، که تمام مشکلاتی که بشر قادر به حل آن است را با هوش خود از میان بردارد؟ پژوهشگران حوزهٔ هوش مصنوعی علاقه‌مندند پاسخی برای این پرسش ارائه دهند. این پاسخ گسترهٔ توانایی ربات‌ها را در آینده مشخص کرده و مسیر پژوهشگران هوش مصنوعی را راهنمایی می‌کند. این تنها به رفتار ربات‌ها ارتباط داشته و تفکر روانشناسان، دانشمندان علوم شناختی و فیلسوف‌ها را را مورد بررسی قرار نمی‌دهند. برای پاسخ به این سؤال، لزومی ندارد که یک ماشین واقعاً همان‌طوری‌که یک انسان فکر می‌کند، فکر کند یا اینکه ادای فکر کردن را در بیاورد. جایگاه اصلی پژوهشگران هوش مصنوعی، در این جمله که در طرح پیشنهادی Dartmouth Conferences در سال ۱۹۵۶ مطرح شده است خلاصه می‌گردد:

هر جنبه‌ای از یادگیری، یا دیگر خصوصیات هوش را می‌توان چنان به‌دقت تشریح کرد که یک ماشین (ربات) بتواند آن را شبیه‌سازی کند.

بحث و جدل علیه قضیهٔ اصلی باید نشان دهد که به وجود آوردن سامانهٔ پویای هوش مصنوعی امکان ندارد. چرا که در حال حاضر توانایی‌های کامپیوترها، دارای یک سری محدودیت‌هایی است؛ یا اینکه توانایی‌های شگرفی برای اندیشیدن در ذهن انسان وجود دارد که هنوز، ماشین‌ها (یا شیوه‌هایی که پژوهشگران هوش مصنوعی در این رابطه پیش گرفته‌اند) قادر به پردازش آن‌ها نیستند و بحث در این خصوص باید مهر تأییدی بر غیر عملی بودن این سامانه باشد.

نخستین گام برای پاسخ به این سؤال این است که «هوش» را به روشنی تعریف کرد.

هوش

[ویرایش]

بررسی هوشمند بودن کامپیوتر (آزمایش تورینگ)

[ویرایش]
مقالهٔ اصلی: آزمایش تورینگ

آلن تورینگ[۹] در مقالهٔ مشهور و حائز اهمیت سال ۱۹۵۰ میلادی، مسئله هوش را به پرسشی ساده دربارهٔ توانایی مکالمه مربوط کرد.[۱۰] پیشنهاد وی این بود: اگر یک ماشین قادر باشد که به تمامی پرسش‌هایی که از آن می‌شود پاسخ دهد، و از همان کلماتی استفاده کند که یک انسان معمولی استفاده می‌کند، آنوقت می‌توان آن ماشین را هوشمند دانست. نمونهٔ مدرن طرح وی را می‌توان در تالارهای برخط گفتگو جستجو کرد؛ جایی که یکی از دو شرکت‌کننده، انسانی حقیقی و دیگری برنامه‌ای کامپیوتری است. برنامهٔ کامپیوتری هنگامی می‌تواند از این آزمون سربلند بیرون بیاید که هیچ‌کس نتواند بین آن و انسان تمییز قائل شود. تورینگ، خاطر نشان کرد که هیچ‌کس (به غیر از فلاسفه) هرگز سؤالی با این مضمون مطرح نکرده است که: «آیا مردم می‌توانند فکر می‌کنند؟» وی می‌نویسد: «به‌جای اینکه مدام دربارهٔ این موضوع بحث کنیم، عادی خواهدبود اگر یک قراردادِ معقول بداشته باشیم مبنی بر اینکه همهٔ فکر می‌کنند.» و آزمون تورینگ، این قراردادِ معقول را به ربات‌ها هم بسط داد.

اگر یک ماشین، بمانند انسان، هوشمندانه عمل کند، آن هنگام است که می‌توان گفت بمانند انسان، هوشمند است.

مقایسهٔ هوش انسان با مفهوم کلی هوش
[ویرایش]

یک نقد دربارهٔ آزمون تورینگ این است که این آزمون، کاملاً انسان نماست. اگر هدف نهایی ما خلق ماشین‌هایی است که هوشمندانه تر از انسان‌ها عمل کنند، چرا بر این امر تأکید داریم که ماشین‌ها باید دقیقاً شبیه به انسان باشند؟ به گفتهٔ راسل و نوروینگ، متون نوشته شده توسط مهندسان علم هوانوردی، نمی‌تواند تعریف درستی برای تولید ماشین‌هایی باشد که درست مانند کبوترها پرواز کنند، به‌طوری‌که دیگر کبوترها نیز فریب بخورند. در پژوهش تازه‌ای که در حوزهٔ هوش مصنوعی انجام گرفت، واژهٔ هوش در عبارات «عوامل عقلانی» و «عوامل هوشی»، معنا شد. «عامل» چیزی است که در یک محیط، مشاهده و عمل می‌کند؛ و اندازه‌گیری عملکرد، بیانگر مقدار موفقیت یک عامل است.

اگر یک «عامل» با توجه به تجربیات و دانش پیشین خود، بیشترین عملکرد را داشته باشد، می‌توان گفت که باهوش است.

چنین تعریفاتی، سعی در به دست آوردن مفهوم و ماهیت هوش دارند. آن‌ها این مزیت را دارد که برخلاف آزمون تورینگ، برای ویژگی‌های انسانی ای که نمی‌خواهیم به‌عنوان هوش تلقی شوند، بکار روند، مانند «توانایی توهین کردن» و «وسوسهٔ دروغ گفتن». اما مشکل اساسی آن‌ها این است که نمی‌توانند، به‌طور منطقی، بین «چیزهایی که فکر می‌کند» و «چیزهایی که فکر نمی‌کنند» تفاوتی قائل شوند. با این تعریف حتی یک دما سنج هم دارای هوشی ابتدایی است.

استدلال‌هایی که یک ماشین می‌تواند هوش عمومی را نمایش دهد

[ویرایش]

مغز می‌تواند شبیه‌سازی گردد

[ویرایش]
مقالهٔ اصلی: مغز مصنوعی

بر اساس نوشتهٔ ماروین مینسکی: «اگر دستگاه عصبی از قوانین فیزیک و شیمی پیروی کند، که تمام شواهد هم حاکی از صحَّت این امر است، سپس ما باید بتوانیم که توسط یک دستگاه فیزیکی، عملکرد سیستم عصبی را بازسازی کنیم». این بحث برای نخستین بار در اوایل سال ۱۹۴۳ مطرح شد و توسط هانس موراوک در سال ۱۹۸۸ روشن‌تر شد؛ و هم‌اکنون ری کورزول پیش‌بینی می‌کند که توانایی کامپیوترها به حدی خواهد رسید که می‌توانند مغز کامل یک انسان را شبیه‌سازی کنند. اما برخی پژوهشگران هوش مصنوعی و حتی منتقدین این حوزه مانند هربرت دریفوس و جان سیرل با اینکه این طرح در تئوری تحقق یابد هم رأی نیستند. اما سیرل خاطر نشان کرد که در اصل، هر چیزی می‌تواند توسط کامپیوترها شبیه‌سازی گردد، و اگر شما بخواهید که به مفهوم شکست، دامنه بزنید، باید بدانید که تمام مراحل محاسبه خواهد شد. وی افزود: «آنچه ما می‌خواهیم بدانیم این است که چه چیزی ذهن آدمی را از دماسنج و جگر متمایز می‌کند!» هر مقاله‌ای که به نوعی با کپی‌برداری از مغز در ارتباط باشد، مقاله ایست که بر نادانی ما در خصوص چگونگی عملکرد هوش صحّه گذاشته است. اگر ما باید می‌دانستیم که مغز چگونه هوش مصنوعی را می‌سازد، هرگز نگران آن (هوش مصنوعی) نبودیم!

تفکر انسان، پردازش مبتنی بر سَمبُل‌ها است

[ویرایش]

مقالهٔ اصلی:Physical symbol system

آلن نیول و هربرت سیمون در سال ۱۹۶۳symbol manipulation را به‌عنوان ماهیت اصلی هوش انسان و ماشین معرفی کردند. آن‌ها نوشتند:

Physical symbol system معنی لازم و کافی عملکرد هوش عمومی دارد.

این ادعا بسیار محکم است: چرا که معتقد است تفکر انسان نوعی symbol manipulation است (چرا که سامانهٔ سمبل برای هوش ضروری است) و آن ماشین می‌تواند باهوش باشد. (چرا که سامانهٔ سمبل برای هوش، کافی است) نسخهٔ دیگری از این نظریه را هربرت دریفوس فیلسوف مطرح کرد و آن را philosophical assumption نامید.

  • مغز می‌تواند بمانند دستگاهی تصور شود که اطلاعاتی را طبق قوانین از پیش تعیین شده بکار می‌گیرد.

معمولاً، این تفاوت، بین سمبل‌های سطح بالایی که در دنیای پیرامون هستند، مثل <سگ> و <دُم> و سمبل‌هایی که پیچیدگی بیشتری دارند و در ماشین‌هایی مثل سیستم شبکهٔ عصبی بکار گرفته می‌شوند، دیده می‌شود. پیشتر، پژوهشی در خصوص هوش مصنوعی توسط جان هاگلند، انجام گرفت که good old fashioned artificial intelligence یا GOFAI نامیده شد. طی این پژوهش سمبل‌های دسته بالا(high level symbols) مورد بررسی قرار گرفتند.

مبحثی علیه نماد پردازش

[ویرایش]

این مباحث نشان می‌دهد که تفکر انسان شاملِhigh level symbol manipulation. نیست. این مباحث هوش مصنوعی را رد نمی‌کنند، تنها به چیزی بیش از نماد پردازش اشاره دارند.

لوکاس، پنروز و گودل

[ویرایش]

در سال ۱۹۳۱ کورت گدل ثابت کرد: که همواره می‌توان عباراتی را خلق کرد، تا یک سیستم صوری (مانند: برنامهٔ هوش مصنوعی) قادر به اثبات آن نباشد. هر انسانی می‌تواند با کمی اندیشیدن به صحّت گفته‌های گودل برسد. این گفته توسط جان لوکاس فیلسوف نیز تأیید شده که منطق انسان همواره قوی تر از منطقِ ربات (ماشین)ها ست. وی نوشته است که به نظر من قضیهٔ گدل برای اثبات نقض ماشین گرایی کافی است، چرا که ذهن را نمی‌توان در قالب ماشین گنجاند. آقای راجر پنروز در کتاب خود به نام «ذهن تازهٔ امپراتور» که در سال ۱۹۸۹ منتشر گشت، به این موضوع بیشتر پرداخته است. در این کتاب وی می‌اندیشد که فرایند مکانیکی کوانتومی که در داخل تک تکِ رشته‌های عصبی انجام می‌شود، به انسان قابلیت ویژه‌ای می‌دهد که بر ماشین‌ها غلبه کند.

دریفوس: برتری مهارت‌های ناخودآگاه

[ویرایش]

هربرت دریفوس معتقد است که هوش انسان و مهارتش ابتدا به غریزه ناخود آگاهش مربوط است تا conscious symbolic manipulation. و خاطر نشان کرد که این مهارت‌های ناخود آگاه، هرگز تحت سلطهٔ قوانین کلی در نخواهد آمد.

آقای ترنینگ روی بحث دری فوس در مقاله‌ای که تحت عنوان بررسیِ ماشین آلات و هوش در سال ۱۹۵۰ مطرح شد تأمل بیشتری کرد. وی این مبحث را در دسته بندیِ arguments from informal behavior جای داد. وی در پاسخ گفت: هنگامی که ما، خودمان قوانینی را که رفتارهای پیچیده را رهبری می‌کنند نمی‌دانیم، دلیل نمی‌شود آن‌ها را نقض کنیم. (ندانستن ما دلیلی بر وجود نداشتن آن‌ها نیست) وی افزود: ما ابداً نمی‌توانیم خودمان را قانع کنیم که هیچگونه قانون کلی‌ای برای رفتارها وجود ندارد. تنها راهی که ما می‌توانیم برا ی یافتن چنین قوانینی پیش گیریم، مشاهدات علمی است و هنگامی که در یافتیم هیچگونه شرایطی تحت این عنوان وجود ندارد می‌توانیم بگوییم: «ما به اندازهٔ کافی جستجو کردیم و چنین قوانینی وجود ندارند».

راسل و نوروینگ اظهار داشتند، طی سال‌هایی که دری فوس مقالهٔ انتقادیش را منتشر کرد، فرایندی برای پی بردن به «قوانینی» که منطق ناخود آگاه را رهبری می‌کنند به وجود آمد. این جنبش‌های جایگزین شده در تحقیق‌های روباتیک در واقع تلاشی است بر ای دستیابی مهارت‌های ناخود آگاهِ ما در درک و توجه. الگوی هوش محاسباتی، مانند رشته‌های عصبی، الگوریتم‌های پویا و غیره، غالباً به شبیه‌سازی استدلال و یادگیری ناخودآگاه رهنمود می‌شوند. تحقیقات در خصوص دانش عمومی روی بازسازی معلومات پیشین و مفهوم دانش، متمرکز شده است. در واقع تحقیق در خصوص هوش مصنوعی، از high level symbol manipulation و GOFAI جدا گشته و به مدلهایی تبدیل شده که گرایش بیشتری به capture کردن منطق ناخود آگاه ما دارند. مورخ و پژوهشگر هوش مصنوعی، آقای دانیل کرویر، نوشته است: «زمان صحت برخی از گفته‌های دری فوس را ثابت می‌کند». ؟

آیا یک ماشین می‌تواند دارای هوشیاری و حالات ذهنی باشد؟

[ویرایش]

این یک سؤال فلسفی است، که بی ارتباط با مشکل ذهن‌های دیگر و مشکل اساسی هوشیاری نیست. این سؤال در حوزهٔ مطالعاتی نظریهٔ هوش مصنوعی قوی (strong AI) که توسط آقای جان سیرل ارائه شده می‌چرخد.

  • یک physical symbol system می‌تواند دارای ذهن و حالات ذهنی باشد.

آقای سیرل این نظریه را با چیزی که هوش مصنوعی ضعیف می‌نامد، (weak AI) متفاوت می‌داند.

  • یک physical symbol system می‌تواند عملکردی هوشمندانه داشته باشد.

وی با جدا کردن هوش مصنوعی قوی از ضعیف، ذهن خودش را روی مطلبی که فکر می‌کرد بحث‌برانگیز تر خواهد بود متمرکز کرد. وی گفت: حتی اگر فرض کنیم که برنامهٔ کامپیوتری‌ای ابداع کرده‌ایم که دقیقاً بمانند ذهن انسان عمل می‌کند، هنوز سؤال‌های فلسفی دشوار وجود دارد که باید به آن‌ها پاسخ دهیم. هیچ‌یک از دو نظریهٔ آقای سیرل نتوانستند به این سؤال پاسخ دهند که: «آیا یک ماشین می‌تواند جلوه‌ای از یک هوش عمومی باشد؟» (مگر اینکه ثابت شود که آگاهی لازمهٔ به وجود آمدن هوش است) وی گفت، نمی‌خواهم این‌گونه برداشت کنم که هیچ رمز و رازی دربارهٔ آگاهی و هوشیاری وجود ندارد. اما در عین حال فکر نمی‌کنم که لزوماً این معماها باید پیش از آنکه به سؤال {آیا ماشین‌ها می‌توانند فکر کنند} پاسخ دهیم، حل شوند. راسل و نوروینگ معتقدند که بیشتر پژوهشگران حوزهٔ هوشِ مصنوعی، فرضیهٔ هوش مصنوعی ضعیف را بدیهی فرض می‌کنند و (انگار) اصلاً فرضیهٔ هوش مصنوعی قوی برایشان جذابیتی ندارد.

پیش از آنکه پاسخی به این سؤال بدهیم، باید بیشتر به معنا و مفهوم واژه‌های minds- mental states-consciousness بپردازیم.

هوشیاری، ذهن، حالات ذهنی و معنا

[ویرایش]

واژه‌های «ذهن» و «هوشیاری» در جوامع گوناگون، معانی متفاوتی دارند. به‌عنوان مثال، برخی از متفکرینِnew age از واژهٔ «هوشیاری» برای وصف چیزهایی شبیه به «élan vital» برگسون، ماده‌ای نامرئی و حاوی انرژی که به زندگی و به‌خصوص ذهن رخنه می‌کند، بهره می‌جویند. نویسندگان داستان‌های علمی تخیلی، از واژه برای توصیف ویژگی ذاتی ی مان که ما را به انسان مبدل کرده است، استفاده می‌کنند. ماشینی که آگاهی دارد یا هوشیار است، به عنوان یک شخصیت کاملاً انسان نمامفهوم معنایی ظاهر می‌شود، با خصوصیاتی نظیر هوش، میل، آرزو، امید، بینش، غرور و بسیاری دیگر… این نویسندگان همچنین از واژه‌های درک، معرفت و دانایی، خود آگاهی و روح، به منظور توصیف این ویژگی‌های اصلی انسانی استفاده می‌کنند. برای دیگرِ افراد واژه‌های «ذهن» و «هوشیاری (آگاهی)» وابستهٔ «روح» تلقی می‌شوند. برای فیلسوف‌ها و دانشمندان علم عصب‌شناسی و علوم شناختی، این دو واژه به مفهومی، دقیق‌تر و دنیوی‌تر دارند. مفهومی ملموس و روزمره تر دارند. مانند فکر کردن، درک کردن، یک رؤیا، یک خیال یا یک برنامه (نقشه)، و چیزی که ما می‌دانیم و درک می‌کنیم. کار دشواری نیست که ما مفهوم دقیق و قابل درکی از آگاهی ارائه کنیم. چیزی که مبهم و اسرارآمیز است، خود آن نیست، بلکه چگونگی آن است.

فلاسفه این را مشکل اصلی آگاهی (هوشیاری) می‌دانند. این نسخهٔ نهایی مشکلات روتین (کلاسیک) فلسفهٔ ذهن است که مسئله ذهن و بدن نامیده می‌شود. مشکل مربوط، مشکلات معنایی یا مفهومی است که فلاسفه آن را intentionality می‌نامند. چه رابطه‌ای میان تفکر ما، (مثل الگوهای عصبی) و چیزی که ما بدان می‌اندیشیم، (مانند موقعیت‌های پیرامونمان) وجود دارد؟ سومین مورد، مشکل تجربه (یا پدیدارشناسی) است. اگر دو فرد، یک چیز را ببینند آیا نسبت یه آن به یک شکل می‌نگرد. (هر دو ی آن‌ها احساسی مشابه نسبت به آن دارند؟) یا اینکه چیزی در ذهنشان وجود دارد (بنام qualia) که در همهٔ اشخاص متفاوت است؟ Neurobiologists معتقدند که هنگامی که ما شروع به شناختن رابطهٔ عصبیِ هوشیاری کنیم، تمامی این مشکلات حل خواهند شد. ماشینی حقیقی که در مغز ما وجود دارد و ذهن، تجربه و فهم را خلق می‌کند. حتی تندترین منتقدین حوزه هوش مصنوعی نیز، بر این امر واقفند که مغز، تنها ماشینی است که هوشیاری (آگاهی) و هوش را در نتیجهٔ فرایندهای فیزیکی می‌سازد. سؤال دشوار فلسفی این است که: آیا یک برنامهٔ کامپیوتری که توسط ماشین دیجیتالی با ادغام ارقام دو دویی صفر و یک، اجرا می‌شود، می‌تواند توانایی نورون‌ها (رشته‌های عصبی) را برای خلق ذهن، و در نهایت تجربهٔ هوشیاری دوبرابر کنند؟

آیا تفکر نوعی محاسبه است؟

[ویرایش]
مقالهٔ اصلی: تئوری محاسباتی ذهن

این مقاله از اهمیت ابتدایی ای برای دانشمندان رفتار شناختی برخوردار است که ذات تفکر بشر و حل مشکلاتش را مطالعه کرده‌اند. تئوریِ محاسباتی ذهن، یا computationalism، ادعا می‌کند که رابطهٔ بین ذهن و جسم، همانند رابطهٔ بین برنامهٔ اجرایی و کامپیوتر است. این ایده ریشه‌ای فلسفی دارد. هابز می‌گوید: استدلال چیزی بیشتر از حساب کردن نیست. لایبنیتز که تمامی تلاشش را برای خلق محاسبات منطقی همهٔ ایده‌های انسان بکار گرفت. هیوم کسی که می‌اندیشید، درک می‌تواند به اجزای ریزی تقسیم‌بندی شود؛ و حتی کانت که تمامی تجربه‌ها را کنترل و با قوانین رسمی، تحلیل کرد. نسخهٔ نهایی، با همکاری دو فیلسوف، هیلاری پاتنام و جری فودور تهیه شد. این سؤال در اصل، زاییدهٔ سؤال‌های پیشین است. اگر مغز انسان نوعی کامپیوتر باشد، آنگاه کامپیوترها می‌توانند هم باهوش باشند و هم آگاه که قادر خواهند بود به سؤالات فلسفی و عملی هوش مصنوعی پاسخ دهند. براساس سؤالات عملی هوش مصنوعی، نظیر (آیا یک ماشین می‌تواند جلوه‌ای از هوش عمومی باشد؟) برخی نسخ computationalism اعلام کردند (همان‌طوری‌که هوبز نوشته:):

  • استدلال چیزی جز محاسبه نیست

به بیان دیگر، هوش ما، برگرفته از نوعی محاسبه است، شبیه به حسابگری (arithmetic). این فرضیه‌ای که در بالا مطرح شد (همان: physical symbol system) نشان می‌دهد که تولید هوش مصنوعی غیرممکن نیست. در خصوص سؤال فلسفی‌ای که در مورد هوش مصنوعی مطرح شد، (آیا یک ماشین می‌تواند، ذهن، حس و آگاهی داشته باشد)، اغلب نسخ در رابطه با محاسبه گرایی(computationalism) همان‌طوری‌که استیون هارناد (Steven Harnad) گفته:

  • حالات ذهنی، تنها اجرای درست برنامه‌های کامپیوتری است.

دیگر سوالات مربوط

[ویرایش]

آلن تورینگ گفت: مباحث بی‌شماری با این عناوین وجود دارند: «یک ماشین هرگز فلان کار را نمی‌کند». و این «فلان»، می‌تواند هر چیزی باشد! مانند:

مهربان بودن، ابتکار داشتن، زیبا، دوستانه و خوش ذوق بودن، شوخ‌طبع بودن، تشخیص درست از نادرست، اشتباه کردن، عاشق شدن، لذت بردن از توت‌فرنگی و خامه، کسی را شیفتهٔ خود کردن، از تجربه‌ها پند گرفتن، از واژه‌ها به‌درستی استفاده کردن، از افکار خویش بهره گرفتن، بمانند انسان رفتارهای گوناگونی داشتن یا اینکه، دست به کارهایی کاملاً تازه بزند.[۱۱]

مهربان بودن، ابتکار داشتن، زیبا، دوستانه و خوش ذوق بودن، شوخ‌طبع بودن، تشخیص درست از نادرست، اشتباه کردن، عاشق شدن، لذت بردن از توت فرنگی و خامه، کسی را شیفتهٔ خود کردن، از تجربه‌ها پند گرفتن، از واژه‌ها به‌درستی استفاده کردن، از افکار خویش بهره گرفتن، بمانند انسان رفتارهای گوناگونی داشتن یا اینکه، دست به کارهایی کاملاً تازه بزند.

«تورینگ» معتقد است که این استدلال‌ها اغلب بر اساس فرضیاتی ساده، مبنی بر تطبیق‌پذیری ماشین‌ها هستند یا فرم دیگری از مبحث هوشیاری. نوشتن برنامه‌ای که رفتارهای فوق را ارائه دهد، تأثیر چندانی نخواهد داشت. تمام این مباحث نسبت به قضیهٔ اصلی هوش مصنوعی، tangential هستند، مگر اینکه بتوانند ثابت کنند که یکی از این ویژگی‌ها برای هوش عمومی ضروری است.

آیا یک ماشین می‌تواند احساس داشته باشد؟

[ویرایش]

هنس مراوک می‌گوید: «به عقیدهٔ من ربات‌ها در کل در خصوص اینکه مردمان خوبی باشند کاملاً احساسی برخورد می‌کنند». و احساسات را در راستای اعمالی که انجام می‌دهند تعریف می‌کنند. ترس سرچشمهٔ فوریت است. همدلی یک عنصر مهم در تعامل میان انسان و کامپیوتر است. به گفتهٔ وی ربات‌ها سعی می‌کنند که در ظاهری کاملاً عاری از خویشتن بینی، از شما در خواست کنند چرا که این عمل تأثیر مثبتی روی آن‌ها می‌گذارد. شما می‌توانید از این عمل آن‌ها به عنوان محبت (عشق) یاد کنید. دانیل کرویر می‌نویسد: «مراوک معتقد است که احساسات تنها ابزاری برای به چالش کشیدن رفتار به سوی بقای یک گونه باشد» این سؤال که آیا یک ماشین قادر به درک احساسات هست یا تنها این‌گونه می‌نمایاند، یک سؤال فلسفی است.

آیا یک ماشین می‌تواند از خود آگاه باشد؟

[ویرایش]

خود آگاهی همان‌طور که در بالا اشاره شد، گاهی اوقات توسط نویسندگان داستان‌های علمی تخیلی تحت عنوان یک اسم برای عمده دارایی یک انسان که شخصیت را کاملاً به یک انسان مبدل می‌کند، بکار گرفته می‌شود. تورینگ انسان را از دیگر دارایی‌هایش تهی کرد و سؤال را به یک جمله تبدیل کرد: «آیا یک ماشین می‌تواند از افکارش تبعیت کند؟» آیا می‌تواند به خودش فکر کند؟ کاملاً واضح و روشن است که در این رابطه می‌توان برنامه‌ای نوشت که ماشین، گزارش‌هایی را از درون خویش بدهد. (مانند debugger).

آیا یک ماشین می‌تواند خلاّق یا مبتکر باشد؟

[ویرایش]

تورینگ سؤالی مطرح کرد و آن سؤال این بود که آیا یک ماشین می‌تواند کاری کند که برای ما تازگی داشته باشد؟ (می‌تواند ما را شگفت زده کند؟) و روی آن بحث کرد، پاسخ مثبت است؛ و هر برنامه‌نویسی می‌تواند آن را تصدیق کند. وی افزود، کامپیوترها با داشتن ظرفیت بالای حافظه‌ای، قادر خواهند بود بی‌شمار رفتار مختلف انجام دهند. احتمال این قضیه، هرچند اندک، وجود دارد که کامپوترها قادر باشند با ترکیب چند ایده، ایده‌ای نو بسازند. به عنوان مثال، Automated Mathematician داگلاس لناتس، چند ایده را برای پی بردن به حقیقت تازه علم ریاضی با هم ترکیب کرد.

آیا یک ماشین می‌تواند روحی داشته باشد؟

[ویرایش]

در نهایت افرادی که به وجود روح عقیده دارند، می‌توانند بر سر این موضوع بحث کنند که:

  • تفکر یکی از قابلیتهای روح جاودان بشر است.
  • هرچیزی که در حیطه فکر بشری قرار بگیرد می‌تواند امکان‌پذیر باشد

آلن تورینگ این را «هدفی الهی» نامید و نوشت: برای ساختن چنین ماشین‌هایی، ما نباید به قدرت او (پروردگار) در ساختن روح بی حرمتی کنیم.

آیا یک ماشین می‌تواند خِرَدی را از انبوه و ترکیب داده ها دریابد که انسان ها متعارفاً نتوانند؟ به صورت معکوس چه طور؟

[ویرایش]

این موضوع در زمینه خِرَد ترکیبی قابل بحث و همچنین بسط و کاربرد است.

آیا یک انسان می تواند خِرَد یا چیزی بیابد که متعارفاً تضمینی برای یافتن آن توسط یک ماشین در زمان معقول وجود ندارد؟

[ویرایش]

این موضوع هم در زمینه خِرَد ترکیبی قابل بحث و همچنین بسط و کاربرد است.

جستارهای وابسته

[ویرایش]
  • درگاه فلسفه
  • درگاه روان‌شناسی
  • درگاه دانش
  • مغز مصنوعی
  • هشیاری مصنوعی
  • هوش مصنوعی
  • سیطره هوش مصنوعی
  • خرد ترکیبی
  • ربات سخنگو
  • اتاق چینی
  • نظریه محاسباتی ذهن
  • نقد هوبرت درایفوس بر هوش مصنوعی
  • کارکردگرایی (فلسفه ذهن)
  • سامانه چندعامله
  • فلسفه علوم کامپیوتر
  • فلسفه اطلاعات
  • فلسفه ذهن

پانویس

[ویرایش]
  1. ↑ McCarthy, John. "The Philosophy of AI and the AI of Philosophy". jmc.stanford.edu. Archived from the original on 23 October 2018. Retrieved 2018-09-18.
  2. ↑ Bringsjord, Selmer; Govindarajulu, Naveen Sundar (2018), Zalta, Edward N. (ed.), "Artificial Intelligence", The Stanford Encyclopedia of Philosophy (Fall 2018 ed.), Metaphysics Research Lab, Stanford University, archived from the original on 9 November 2019, retrieved 2018-09-18
  3. ↑ David Deutsch. "Philosophy will be the key that unlocks artificial intelligence". The Guardian (به انگلیسی). Retrieved 11 August 2020.
  4. ↑ This is a paraphrase of the essential point of the Turing test. (Turing 1950), (Haugeland 1985، صص. 6–9), (Crevier 1993، ص. 24), (Russell و Norvig 2003، صص. 2–3 and 948)
  5. ↑ (McCarthy و دیگران 1955). This assertion was printed in the program for the Dartmouth Conference of 1956, widely considered the "birth of AI."also (Crevier 1993، ص. 28)
  6. ↑ (Newell و Simon 1976) and (Russell و Norvig 2003، ص. 18)
  7. ↑ This version is from (Searle 1999), and is also quoted in (Dennett 1991، ص. 435). Searle's original formulation was "The appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states." (Searle 1980, p. 1). Strong AI is defined similarly by (Russell و Norvig 2003، ص. 947): "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis."
  8. ↑ (Hobbes 1651، chpt. 5)
  9. ↑ Turing, Alan Mathison. Who's Who (online Oxford University Press ed.). A & C Black, an imprint of Bloomsbury Publishing plc. (نیازمند آبونمان)
  10. ↑ (Turing 1950) under "The Argument from Consciousness"
  11. ↑ (Turing 1950) under "(5) Arguments from Various Disabilities"

منابع

[ویرایش]
  • مشارکت‌کنندگان ویکی‌پدیا. «Philosophy of artificial intelligence». در دانشنامهٔ ویکی‌پدیای انگلیسی، بازبینی‌شده در ۱۱ اوت ۲۰۲۰.
  • Blackmore, Susan (2005), Consciousness: A Very Short Introduction, Oxford University Press
  • Brooks, Rodney (1990), "Elephants Don't Play Chess" (PDF), Robotics and Autonomous Systems 6: 3-15, http://people.csail.mit.edu/brooks/papers/elephants.pdf،[پیوند مرده] retrieved on ۳۰ اوت ۲۰۰۷
  • Cole, David (Fall 2004), "The Chinese Room Argument", in Zalta, Edward N. , The Stanford Encyclopedia of Philosophy, http://plato.stanford.edu/archives/fall2004/entries/chinese-room/ .
  • Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, ISBN 0-465-02997-3
  • Dennett, Daniel (1991), Consciousness Explained, The Penguin Press, ISBN 0-7139-9037-6
  • Dreyfus, Hubert (1972), What Computers Can't Do, New York: MIT Press, ISBN 0-06-011082-1
  • Dreyfus, Hubert (1979), What Computers Still Can't Do, New York: MIT Press.
  • Dreyfus, Hubert; Dreyfus, Stuart (1986), Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer, Oxford, UK: Blackwell
  • Fearn, Nicholas (2007), The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers, New York: Grove Press
  • Gladwell, Malcolm (2005), Blink: The Power of Thinking Without Thinking, Boston: Little, Brown, ISBN 0-316-17232-4.
  • Harnad, Stevan (2001), "What's Wrong and Right About Searle's Chinese Room Argument?", in Bishop, M. ; Preston, J. , Essays on Searle's Chinese Room Argument, Oxford University Press, http://cogprints.org/4023/1/searlbook.htm
  • Hobbes (1651), Leviathan.
  • Hofstadter, Douglas (1979), Gödel, Escher, Bach: an Eternal Golden Braid.
  • Horst, Steven (Fall 2005), "The Computational Theory of Mind", in Zalta, Edward N. , The Stanford Encyclopedia of Philosophy, http://plato.stanford.edu/archives/fall2005/entries/computational-mind/ .
  • Kurzweil, Ray (2005), The Singularity is Near, New York: Viking Press, ISBN 0-670-03384-7.
  • Lucas, John (1961), "Minds, Machines and Gödel", in Anderson, A.R. , Minds and Machines, http://users.ox.ac.uk/~jrlucas/Godel/mmg.html بایگانی‌شده در ۱۹ اوت ۲۰۰۷ توسط Wayback Machine.
  • McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, https://web.archive.org/web/20070826230310/http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html .
  • McDermott, Drew (۱۴ مه ۱۹۹۷), "How Intelligent is Deep Blue", New York Times, https://web.archive.org/web/20071004234354/http://www.psych.utoronto.ca/~reingold/courses/ai/cache/mcdermott.html
  • Moravec, Hans (1988), Mind Children, Harvard University Press
  • Newell, Allen; Simon, H. A. (1963), "GPS: A Program that Simulates Human Thought", in Feigenbaum, E.A. ; Feldman, J. , Computers and Thought, McGraw-Hill
  • Newell, Allen; Simon, H. A. (1976), "Computer Science as Empirical Inquiry: Symbols and Search", Communications of the ACM, 19, https://web.archive.org/web/20081007162810/http://www.rci.rutgers.edu/~cfs/472_html/AI_SEARCH/PSS/PSSH4.html
  • Russell, Stuart J. ; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, NJ: Prentice Hall, ISBN 0-13-790395-2, http://aima.cs.berkeley.edu/
  • Penrose, Roger (1989), The Emperor's New Mind: Concerning Computers, Minds, and The Laws of Physics, Oxford University Press, ISBN 0-14-014534-6
  • Searle, John (1980), "Minds, Brains and Programs", Behavioral and Brain Sciences 3 (3): 417-457, https://web.archive.org/web/20000823030455/http://members.aol.com/NeoNoetics/MindsBrainsPrograms.html
  • Searle, John (1992), The Rediscovery of the the Mind, Cambridge, Massachusetts: M.I.T. Press
  • Searle, John (1999), Mind, language and society, New York, NY: Basic Books, ISBN 0-465-04521-9, OCLC 231867665 43689264
  • Turing, Alan (اکتبر ۱۹۵۰), "Computing Machinery and Intelligence", Mind LIX (236): 433–460, ISSN 0026-4423, http://loebner.net/Prizef/TuringArticle.html, retrieved on ۱۸ اوت ۲۰۰۸

پیوند به بیرون

[ویرایش]
  • Research Paper: Philosophy of Consciousness and Ethics In Artificial Intelligence
  • ن
  • ب
  • و
فلسفه ذهن
فیلسوفان ذهن
  • الیزابت انسکوم
  • جان لانگشاو آستین
  • توماس آکویناس
  • Bain
  • آنری برگسون
  • Bhattacharya
  • Block
  • فرانتس برنتانو
  • Broad
  • تایلر برج
  • دیوید چالمرز
  • پاتریشا چرچلند
  • دنیل دنت
  • دارماکرتی
  • دونالد دیویدسن
  • رنه دکارت
  • آلوین گولدمن
  • مارتین هایدگر
  • ادموند هوسرل
  • پاول فایرابند
  • جری فودر
  • ویلیام جیمز
  • سورن کی‌یرکگور
  • گوتفرید لایبنیتس
  • دیوید لوئیس (فیلسوف)
  • جان مکداول
  • موریس مرلو-پونتی
  • ماروین مینسکی
  • جرج ادوارد مور
  • تامس نیگل
  • درک پارفیت
  • هیلاری پاتنم
  • کارل پوپر
  • ریچارد رورتی
  • گیلبرت رایل
  • جان سرل
  • باروخ اسپینوزا
  • آلن تورینگ
  • واسوباندو
  • لودویگ ویتگنشتاین
  • چوانگتسی
  • more...
نظریات
  • رفتارگرایی
  • طبیعت‌گرایی زیست‌شناختی
  • دوگانه‌انگاری ذهن و بدن
  • ماده‌باوری حذف‌گرا
  • متریالیسم ظهورگرا
  • همایندگرایی
  • کارکردگرایی (فلسفه ذهن)
  • ایدئالیسم
  • تعامل‌گرایی (فلسفه ذهن)
  • ماده‌باوری
  • یگانه‌انگاری
  • واقع‌گرایی خام
    • Neurophenomenology
  • یگانه‌انگاری خنثی
  • مقارنه‌گرایی
  • دوگانه‌انگاری موازی
  • پدیده‌گرایی
  • پدیدارشناسی (فلسفه)
  • فیزیکالیسم
    • نظریه این‌همانی ذهن
  • دوگانه‌انگاری ویژگی‌ها
  • بازنمایی ذهنی
  • خودتنهاانگاری
  • دوگانه‌انگاری ذهن و بدن
مفاهیم
  • انتزاعی و انضمامی
  • هوش مصنوعی
  • اتاق چینی
  • شناخت
  • Cognitive closure
  • مفهوم
  • Concept and object
  • خودآگاهی
  • مسئله دشوار خودآگاهی
  • Hypostatic abstraction
  • ایده
  • این‌همانی
  • خلاقیت
  • هوش
  • قصدمندی
  • درون‌نگری
  • شهود
  • Language of thought
  • ماده‌باوری
  • رویداد ذهنی
  • تصویر ذهنی
  • شناخت
  • Mental property
  • بازنمایی ذهنی
  • ذهن
  • مسئله ذهن و جسم
  • New mysterianism
  • درد (فلسفه)
  • Problem of other minds
  • گرایش‌های گزاره‌ای
  • کیفیات ذهنی
  • تابولا رازا
  • فهم
  • زامبی فلسفی
  • more...
موضوعات مرتبط
  • متافیزیک
  • فلسفه هوش مصنوعی / فلسفه اطلاعات / فلسفه ادراک / فلسفه‌ی خود
  • درگاه
  • فلسفه ذهن
  • فیلسوفان ذهن
  • ویکی‌پروژه فلسفه
  • ن
  • ب
  • و
فلسفه
رشته‌ها
شاخه‌های سنتی
  • متافیزیک
  • معرفت‌شناسی
  • منطق
  • اخلاقیات
  • زیبایی‌شناسی
فلسفه‌های مضاف
  • آموزش
  • ادبیات
  • اطلاعات
  • اجتماع
  • اقتصاد
  • بهداشت
  • تاریخ
  • جامعه‌شناسی
  • جنسیت
  • جنگ
  • جغرافیا
  • حقوق
  • دین
  • ذهن
  • رایانه
  • روان‌شناسی
  • ریاضیات
  • زبان
  • زیست‌بوم
  • زیست‌شناسی
  • سیاست
  • شیمی
  • طبیعت انسان
  • علم
  • فلسفه
  • فیزیک
  • فناوری
  • مهندسی
  • منطق
  • هنر
    • موسیقی
    • فیلم
    • فرهنگ
  • هوش مصنوعی
گرایش‌های فلسفی
بر اساس دوره
  • باستان
  • غربی
    • قرون وسطی
    • رنسانس
    • پیشامدرن
    • مدرن
    • معاصر
باستان
چین
  • کنفسیوس‌گرایی
  • تائوئیسم
  • موهیسم
  • قانون‌گرایی (فلسفه چینی)لگالیسم
  • ذن
یونان و
روم
  • پیشاسقراطی
  • الئاییان
  • ایونیان
    • اِفسوسیان
    • ملطیان
  • کورناییان
  • مگاراییان
  • فیثاغوری
    • نوفیثاغورسی
  • اتمیسم
  • چندگانه‌گرایی
  • سوفسطاییان
  • پیرهونی
  • رواقیان
  • کلبیون
  • لذت‌پرستی
  • هرمنوتیک
  • افلاطون
    • نوافلاطونی
  • ارسطوگرایی
  • مشاء
هند
  • هندو
  • بودایی
  • چارواکا
  • جین
ایران
  • مزدکی
  • مانوی
  • مزدیسنا
    • زروانی
قرون وسطی
۹ تا ۱۶ میلادی
اروپا
  • مسیحی
    • مدرسی
    • قرون وسطی
    • تومیسم
شرقی
  • نئو کنفوسیانیسم
هندی
  • دوایتا
  • ناویا-نایایا
  • ویشیشتادواتیا
اسلامی
  • اولیه اسلامی
  • اشراق
  • مشاء
  • ابن‌سیناگرایی
  • متعالیه
یهودی
  • یهودی اسلامی (۸۰۰–۱۴۰۰ م)
جدید
۱۷ تا ۱۹ میلادی
افراد
  • دکارت‌گرایی
  • کانت‌گرایی
  • نئوکانت‌گرایی
  • هگل‌گرایی
  • مارکسیسم
  • اسپینوزاگرایی
ایده / ماده
  • جبرگرایی
  • دوگانه‌گرایی
  • تجربه‌گرایی
  • ایدئالیسم
    • مطلق
    • بریتانیایی
    • آلمانی
    • عینی
    • ذهنی
    • استعلایی
  • رئالیسم کلاسیک
  • ماتریالیسم
  • یگانه‌انگاری
  • طبیعت‌گرایی
  • عمل‌گرایی
  • تقلیل‌گرایی
  • خردگرایی
  • اصالت نفع
دیگر
  • آنارشیسم
  • جمع‌گرایی
  • نئو کنفوسیانیسم
  • محافظه‌کاری
  • اگزیستانسیالیسم
  • تاریخ‌گرایی
  • کل‌نگری
  • انسان‌گرایی
  • فردگرایی
  • لیبرالیسم
  • نوگرایی
  • قانون طبیعی
  • نیهیلیسم
  • پدیدارشناسی
  • اثبات‌گرایی
  • قرارداد اجتماعی
  • سوسیالیسم
  • تعالی‌گرایی
معاصر
۲۰ تا ۲۱ میلادی
تحلیلی
  • اخلاق کاربردی
  • فمینیسم تحلیلی
  • مارکسیسم تحلیلی
  • پیامدگرایی
  • خردگرایی انتقادی
  • فلسفه تجربی
  • ابطال‌پذیری
  • دستور زایشی
  • اثبات‌گرایی منطقی
  • قانون‌گرایی
  • اخلاق هنجاری
  • فرااخلاق
  • واقع‌گرایی اخلاقی
  • اخلاق فضیلت
  • طبیعت‌گرایی کواین
  • زبان متعارف
  • فلسفه پساتحلیلی
  • رولزگرایی
  • معرفت‌شناسی اصلاح‌شده
  • علم‌گرایی
  • رئالیسم علمی
  • شک‌گرایی علمی
  • اصالت نفع
  • حلقه وین
  • ویتگنشتاین‌گرایی
قاره‌ای
  • نظریه انتقادی
  • ساخت‌گشایی
  • اگزیستانسیالیسم
  • فمینیسم
  • مکتب فرانکفورت
  • تاریخ‌گرایی نوین
  • هرمنوتیک
  • نئومارکسیسم
  • پدیدارشناسی
  • پست‌مدرنیسم
  • پساساختارگرایی
  • ساختارگرایی
  • مارکسیسم غربی
دیگر
  • مکتب کیوتو
  • عینیت‌گرایی
نظریه‌ها
زیبایی‌شناسی
  • فرمالیسم
  • نظریه هنر
  • زیبایی‌شناسی احساسات
اخلاق
  • پیامدگرایی
  • اخلاق وظیفه‌گرا
  • فضیلت
  • اصالت نفع
اختیار
  • جبرگرایی
  • لیبرترینیسم
متافیزیک
  • اتم‌گرایی
  • دوگانه‌گرایی
  • یگانه‌انگاری
  • طبیعت‌گرایی
معرفت‌شناسی
  • ساختارگرایانه
  • تجربه‌گرایی
  • ایدئالیسم
  • خاص‌گرایی
  • فیدیسم
  • خردگرایی / استدلال‌گرایی
  • شک‌گرایی فلسفی
  • شک‌گرایی
  • خودتنهاانگاری
ذهن
  • رفتارگرایی
  • همایندگرایی
  • کارکردگرایی
  • عینی‌گرایی
  • ذهنیت‌گرایی
هنجارمندی
  • مطلق‌گرایی
  • خاص‌گرایی
  • نسبی‌گرایی
  • اخلاق‌ستیزی
  • شک‌گرایی
  • جهانی‌گرایی
هستی‌شناسی
  • کنش
  • رخداد
  • فرایند
واقعیت
  • ضدواقع‌گرایی
  • مفهوم‌گرایی
  • ایدئالیسم
  • ماده‌باوری
  • طبیعت‌گرایی
  • نام‌گرایی
  • فیزیکالیسم
  • واقع‌گرایی
  • غیره
بر پایه منطقه
  • آفریقایی
  • اتیوپیایی
  • آزتک
  • بومیان آمریکا
  • شرقی
  • چینی
  • مصری
  • چکی
  • هندی
  • اندونزیایی
  • ایرانی
  • ژاپنی
  • کره‌ای
  • ویتنامی
  • پاکستانی
  • غربی
  • آمریکایی
  • بریتانیایی
  • دانمارکی
  • فرانسوی
  • آلمانی
  • یونانی
  • ایتالیایی
  • لهستانی
  • رومانیایی
  • روسی
  • اسلوونیایی
فهرست‌ها
  • برون‌نما
  • نمایه
  • مکتب‌ها
  • واژه‌نامه
  • فیلسوفان
  • فهرست مسئله‌های حل‌نشده در فلسفه
  • جنبش‌ها
  • انتشارات
متفرقه
  • زنان در فلسفه
  • درگاه
  • رده
  • ویکی‌پروژه
  • موضوعات
  • ن
  • ب
  • و
فلسفه علم
مفاهیم
  • تحلیل
  • گزاره تحلیلی-گزاره ترکیبی
  • پسینی و پیشینی
  • علیت
  • هم‌پیمانگی
  • Consilience
  • ساختار
  • Creative synthesis
  • مسئله مرزبندی
  • شواهد تجربی
  • Explanatory power
  • وجود مسلم
  • ابطال‌پذیری
  • Feminist method
  • نمی‌دانیم و نخواهیم دانست
  • استقراء
  • Intertheoretic reduction
  • استعلام
  • طبیعت
  • عینی‌گرایی
  • مشاهده
  • پارادایم
  • قیاس‌پذیری
  • مسئله استقراء
  • قانون علمی
  • روش علمی
  • انقلاب علمی
  • تئوری علمی
  • آزمون پذیری
  • Theory choice
  • تئوری-بارگیری
  • تعین ناقص
  • وحدت علم
فرانظریه
  • انسجام (منطق)
  • Confirmation holism
  • Constructive empiricism
  • Constructive realism
  • شناخت‌شناسی ساخت‌گرا
  • زمینه‌گرایی
  • Conventionalism
  • {Deductive-nomological model
  • Hypothetico-deductive model
  • Inductionism}
  • پاول فایرابند
  • فرگشت‌گرایی
  • فریب‌گرایی
  • مبناگرایی (روابط بین‌الملل)
  • ابزارانگاری
  • عمل‌گرایی
  • Model-dependent realism
  • طبیعت‌گرایی
  • فیزیکالیسم
  • اثبات‌گرایی-فروکاست‌گرایی-جبرگرایی
  • خردگرایی / تجربه‌گرایی
  • Received view / Semantic view of theories
  • واقع‌گرایی علمی / Anti-realism
  • Scientific essentialism
  • صورت‌گرایی علمی
  • شک‌گرایی علمی
  • علم‌گرایی
  • Structuralism
  • همدیس‌گرایی
  • زیستگرایی
فلسفهٔ
  • فیزیک
    • فلسفه فیزیک حرارتی و آماری
    • فلسفه حرکت
  • شیمی
  • زیست‌شناسی
  • فلسفه محیطی
  • فلسفه جغرافیا
  • فلسفه علوم اجتماعی
  • فلسفه فناوری
    • فلسفه مهندسی
    • هوش مصنوعی
    • علوم رایانه
  • اطلاعات
  • ذهن
  • فلسفه روان‌پزشکی
  • روان‌شناسی
  • فلسفه ادراک
  • فضا و زمان
مطالب مرتبط
  • کیمیا
  • نقد علم
  • معرفت‌شناسی
  • ایمان و عقلانیت
  • تاریخ فلسفه علم
  • تاریخ دانش
  • تاریخچه اندیشه فرگشتی
  • منطق
  • متافیزیک
  • شبه‌علم
  • رابطه علم و دین
  • Rhetoric of science
  • جامعه‌شناسی علم
  • جامعه‌شناسی نادانی علمی
فیلسوفان علم به تفکیک دوران
کهن
  • آرشیت دانا
  • افلاطون
  • ارسطو
  • زنون
  • اپیکور
قرون وسطی
  • ابن رشد
  • ابن سینا
  • راجر بیکن
  • ویلیام اکام
  • Hugh of Saint Victor
  • Dominicus Gundissalinus
  • Robert Kilwardby
مدرن‌های اولیه
  • فرانسیس بیکن
  • توماس هابز
  • رنه دکارت
  • گالیلئو گالیله
  • پی‌یر گاسندی
  • آیزاک نیوتن
  • دیوید هیوم
مدرن‌های کلاسیک
  • ایمانوئل کانت
  • فریدریش ویلهلم یوزف شلینگ
  • اگوست کنت
  • ویلیام هیول
  • ویلهلم ویندلباند
  • جان استوارت میل
  • هربرت اسپنسر
  • پی‌یر دوهم
  • آنری پوانکاره
  • ویلهلم وونت
نوین
  • آلبرت اینشتین
  • برتراند راسل
  • آلفرد نورث وایتهد
  • رودولف اشتاینر
  • رودلف کارناپ
  • ویلارد کواین
  • بس ون فراسن
  • کارل گوستاو همپل
  • چارلز سندرز پرس
  • دنیل دنت
  • هانس رایشنباخ
  • ایان هکینگ
  • ایمره لاکاتوش
  • یورگن هابرماس
  • کارل پیرسون
  • کارل پوپر
  • Larry Laudan
  • مایکل پولانی
  • اتو نویرات
  • پاول فایرابند
  • توماس کوهن
  • درگاه
  • رده:فلسفه علم
  • ن
  • ب
  • و
علوم رایانه
توجه: این الگو تقریباً از سیستم دسته‌بندی رایانش ای‌سی‌ام پیروی می‌کند.
سخت‌افزار
  • برد مدار چاپی
  • دستگاه جانبی
  • مدار مجتمع
  • یکپارچه‌سازی کلان‌مقیاس
  • سامانه روی یک تراشه
  • رایانش سبز
  • خودکارسازی طراحی الکترونیکی
  • شتاب‌دهنده سخت‌افزاری
سازمان
سامانه‌های رایانه
  • معماری رایانه
  • سامانه نهفته
  • رایانش بی‌درنگ
  • اطمینان‌پذیری
شبکه رایانه‌ای
  • معماری شبکه
  • پروتکل ارتباطات
  • سخت‌افزار شبکه
  • برنامه‌ریز شبکه
  • کارایی شبکه رایانه‌ای
  • سرویس شبکه‌ای
سازمان نرم‌افزار
  • مفسر
  • میان‌افزار
  • ماشین مجازی
  • سیستم‌عامل
  • کیفیت نرم‌افزار
نظریه زبان‌های برنامه‌نویسی
و ابزار توسعه نرم‌افزار
  • الگو برنامه‌نویسی
  • زبان برنامه‌نویسی
  • کامپایلر
  • زبان خاص دامنه
  • زبان مدل‌سازی
  • چارچوب نرم‌افزاری
  • محیط یکپارچه توسعه نرم‌افزار
  • مدیریت پیکربندی نرم‌افزار
  • کتابخانه (رایانه)
  • مخزن نرم‌افزاری
توسعه نرم‌افزار
  • فرایند توسعه نرم‌افزار
  • تحلیل نیازمندی‌ها
  • طراحی نرم‌افزار
  • ساخت نرم‌افزار
  • استقرار نرم‌افزار
  • تعمیر و نگهداری نرم‌افزار
  • تیم برنامه‌نویسی
  • نرم‌افزار متن‌باز
  • برنامه‌نویسی
  • آزمون نرم‌افزار
نظریه محاسبات
  • مدل محاسبه
  • زبان صوری
  • نظریه اتوماتا
  • نظریه رایانش‌پذیری
  • نظریه پیچیدگی محاسباتی
  • منطق در علوم کامپیوتر
  • معنی‌شناسی (علوم رایانه)
الگوریتمها
  • الگوریتم
  • تحلیل الگوریتم‌ها
  • کارایی الگوریتمی
  • الگوریتم‌های تصادفی
  • هندسه محاسباتی
ریاضیات
رایانه
  • ریاضیات گسسته
  • احتمالات
  • آمار
  • نرم‌افزار ریاضی
  • نظریه اطلاعات
  • آنالیز ریاضی
  • آنالیز عددی
سامانه اطلاعاتی
  • پایگاه داده
  • ذخیره‌سازی داده رایانه
  • سامانه اطلاعات سازمانی
  • نرم‌افزار اجتماعی
  • سامانه اطلاعات جغرافیایی
  • سامانه پشتیبانی تصمیم
  • کنترل فرایند
  • پایگاه داده چند رسانه‌ای
  • داده‌کاوی
  • کتابخانه دیجیتال
  • سکوی رایانش
  • بازاریابی اینترنتی
  • وب جهان‌گستر
  • بازیابی اطلاعات
  • مستندسازی فنی
امنیت رایانه
  • رمزنگاری
  • روش‌های صوری
  • خدمات امنیتی
  • سامانه تشخیص نفوذ
  • خرابی سخت‌افزار
  • امنیت شبکه
  • امنیت اطلاعات
  • امنیت برنامه
تعامل انسان و رایانه
  • طراحی تعاملی
  • رایانش اجتماعی
  • رایانش فراگیر
  • مصورسازی
  • دسترس‌پذیری رایانه
  • واسط‌های کاربر
  • رایانش پوشیدنی
همروندی
  • رایانش همزمان
  • رایانش موازی
  • رایانش توزیع‌شده
  • چندریسمانی
  • چندپردازشی
هوش مصنوعی
  • پردازش زبان‌های طبیعی
  • بازنمود دانش
  • بینایی رایانه‌ای
  • برنامه‌ریزی خودکار
  • بهینه‌سازی
  • نظریه کنترل
  • فلسفه هوش مصنوعی
  • هوش مصنوعی توزیع شده
  • استدلال خودکار
  • زبان‌شناسی رایانشی
  • یادگیری ماشین
یادگیری ماشین
  • یادگیری با نظارت
  • یادگیری بی‌نظارت
  • یادگیری تقویتی
  • یادگیری چند-وظیفه‌ای
  • روش اعتبارسنجی متقابل
گرافیک رایانه‌ای
  • پویانمایی رایانه‌ای
  • رندرینگ (گرافیک رایانه‌ای)
  • روتوش
  • واحد پردازش گرافیکی
  • واقعیت ترکیبی
  • واقعیت مجازی
  • فشرده‌سازی تصویر
  • مدلسازی جامد
رایانش
کاربردی
  • تجارت الکترونیک
  • نرم‌افزار سازمانی
  • ریاضیات محاسباتی
  • فیزیک محاسباتی
  • شیمی محاسباتی
  • زیست‌شناسی محاسباتی
  • علوم اجتماعی محاسباتی
  • مهندسی و علم محاسبه
  • انفورماتیک پزشکی
  • هنر دیجیتال
  • نشر الکترونیک
  • جنگ مجازی
  • رأی‌گیری الکترونیکی
  • بازی ویدئویی
  • واژه‌پرداز
  • تحقیق در عملیات
  • فناوری آموزشی
  • سامانه مدیریت اسناد
توجه: بنا بر سامانه رده‌بندی رایانش ای‌سی‌ام علم رایانه همچنین می‌تواند به موضوع‌ها یا زمینه‌های گوناگون تقسیم شود.
  • کتاب:علوم رایانه
  • رده:علوم رایانه
  • طرح کلی علوم رایانه
  • ویکی‌پدیا:ویکی‌پروژه علوم رایانه
  • ویکی‌انبار
برگرفته از «https://fa.teknopedia.teknokrat.ac.id/w/index.php?title=فلسفه_هوش_مصنوعی&oldid=41706525»
رده‌ها:
  • فلسفه هوش مصنوعی
  • علوم شناختی
  • فلسفه بر پایه موضوع
  • فلسفه ذهن
  • فلسفه علم بر پایه رشته
  • فلسفه علم
  • فلسفه فناوری
  • مسئله‌های حل‌نشده
  • معرفت‌شناسی
  • مقاله‌های برچسب‌دار فلسفه
  • هوش مصنوعی
رده‌های پنهان:
  • یادکردهای دارای منبع به زبان انگلیسی
  • مقاله‌های نیازمند ترجمه ویکی‌پدیا
  • مقاله‌های نیازمند به ویکی‌سازی
  • مقاله‌های دارای واژگان به زبان انگلیسی
  • مقاله‌های دارای الگوهای سرنویس با صفحه هدف ناموجود
  • مقاله‌های دارای الگوی یادکرد-ویکی
  • صفحه‌های دارای پیوند مرده
  • پیوندهای وی‌بک الگوی بایگانی اینترنت
  • ویکی‌سازی رباتیک

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • країнська
  • Tiếng Việt
  • Winaray
  • 文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id