نظریه ها و مدل های هوشمند

در دهه‌های اخیر، پیشرفت‌های چشمگیری در حوزه‌ی هوش مصنوعی وجود داشته که نظریه‌ها و مدل‌های متعددی را به وجود آورده‌اند. یکی از این نظریه‌ها شبکه‌های عصبی عمیق هستند که به وسیله‌ی ساختاری از چندین لایه‌ی پردازشی که به صورت مشابه به ساختمان مغز انسان عمل می‌کنند، اقدام به یادگیری و انجام وظایف پیچیده می‌کنند. یادگیری ژرف، یکی دیگر از مدل‌های مهم هوش مصنوعی است که از الگوریتم‌های پیچیده‌تر و دقیق‌تری استفاده می‌کند تا به تحلیل داده‌های پیچیده و پیش‌بینی دقیق پرداخته و برای کاربردهای گوناگون از جمله تصویربرداری و پردازش زبان طبیعی به کار برود.

علاوه بر این، الگوریتم‌های یادگیری تقویتی نیز به طور گسترده‌ای در مسائلی مانند بازی‌های رایانه‌ای و رباتیک کاربرد دارند و بر اساس تعامل با محیط و دریافت پاداش یاد می‌گیرند. هوش مصنوعی تقویتی، می‌تواند به ایجاد عامل‌های هوشمندی که تصمیم‌های بهتری برای حل مسائل پیچیده بگیرند، کمک کند.

مجتمع فنی تهران نیز به منظور ارائه دوره‌های آموزشی متخصص در حوزه شبکه و امنیت، دوره‌های مختلفی را برگزار می‌کند که شامل آموزش‌های عملی و عمیق در زمینه مدیریت و بهینه‌سازی شبکه می‌باشند. این دوره‌ها به دانشجویان این امکان را می‌دهند تا با استفاده از بهترین شیوه‌ها و تجربیات عملی، به مهارت‌های لازم برای مدیریت شبکه‌های پیچیده و پیشگیری از حملات امنیتی پی ببرند.

ساختمان | لوازم خانگی

در مطلب فوق به دنیای الگوریتم‌ها و ماشین‌های هوشمند سلام کنید مقدمه‌ای کوتاه در خصوص هوش مصنوعی و تلاش‌های انجام شده در این حوزه ارائه کردیم و به دستاوردهای مهم این حوزه اشاره کردیم.

در حالی که نوربرت وینر فرضیه‌های مختلفی را پیشنهاد داد، اما مشهورترین آن‌ها در ارتباط با فرمان‌شناسی (cybernetics) بود. این فرضیه بر درک کنترل و ارتباط با حیوانات، مردم و ماشین‌ها متمرکز است و سعی دارد اهمیت حلقه‌های بازخوردی را نشان دهد. در سال ۱۹۴۸، وینر مقاله فرمان‌شناسی: نحوه کنترل و برقراری ارتباط با ماشین‌ها را منتشر کرد. این کتاب اگرچه به عنوان یک اثر علمی شناخته می‌شود، اما سرشار از معادلات پیچیده‌ای است. به همین دلیل به یکی از پرفروش ترین کتاب‌های علمی تبدیل شد که نامش در فهرست کتاب‌های پر فروش نیویورک تایمز نیز وارد شد.

فرمانشناسی (سایبرنتیک)

داستان اصلی

علاقه جان مک کارتی به کامپیوترها در سال ۱۹۴۸ هنگامی که وی در سمیناری تحت عنوان “مکانیسم‌های مغزی در رفتار” شرکت کرد، به اوج خود رسید. سمینار مذکور حول این محور برگزار شد که چگونه ماشین‌ها می‌توانند در نهایت فکر کنند. برخی از شرکت‌کنندگان در این سمینار از پیشگامان فناوری‌های نوین بودند که جان فون نویمان، آلن تورینگ و کلود شانون از شاخص‌ترین چهره‌های این سمینار بودند. مک کارتی زندگی خود را وقف صنعت کامپیوتر کرد و برای مدت زمان مدیدی در آزمایشگاه‌های بل به تحقیق و پژوهش مشغول به کار شد. او در سال ۱۹۵۶، به مدت ۱۰ هفته در دانشگاه دارتموث یک پروژه تحقیقاتی انجام داد. او پژوهش خود را “مطالعه روی هوش‌مصنوعی” نام‌گذاری کرد. این اولین بار بود که از اصطلاح هوش مصنوعی استفاده شد. همکاران او در این پژوهش عملی استاتید برجسته دانشگاه، ماروین مینسکی، ناتانیل روچستر، آلن نیول، ا. جی سلفریج، ریموند سلیمانوف و کلود شانون بودند. همه آن‌ها با گذشت زمان به یکی از مهره‌های کلیدی دنیای هوش مصنوعی تبدیل شدند. اهداف این پژوهش تحقیقاتی بلندپروازانه به شرح زیر بود:

این تحقیق بر اساس این فرضیه انجام شد که هر جنبه‌ای از یادگیری یا هر ویژگی که ریشه آن هوش باشد را می‌توان به شکلی توصیف و تشریح کرد که امکان شبیه‌سازی آن در یک ماشین وجود داشته باشد. تلاش برای پیدا کردن راه‌حلی برای این‌که ماشین‌ها صحبت کنند، پیدا کردن راه‌حلی برای شکل دادن به مفاهیم و موضوعات انتزاعی، حل برخی از مشکلاتی که انسان‌ها در پیدا کردن پاسخ برای آن‌ها ناتوان هستند و در نهایت پیاده‌سازی راه‌حلی که ماشین‌ها بتوانند عملکرد خود را بهبود بخشند از بخش‌های کلیدی این تحقیق بود. مک کارتی در دفاع از پژوهش خود در کنفرانسی که در همین رابطه برگزار شد چنین گفت: «ما فکر می‌کنیم اگر یک گروه از دانشمندان را به دقت انتخاب کنیم تا یک تابستان روی مفاهیم یاد شده کار کنند، پیشرفت قابل توجهی در حل یک یا چند مشکلات خواهیم داشت. اما این‌ حرف صحیح نیست.»

ساختمان | لوازم خانگی

پیاده‌سازی نظریه منطق (Logic Theorist) کار ساده‌ای نبود. نیول، شاو و سایمون از یک مدل IBM 701 که از زبان ماشین استفاده می‌کرد، برای پیاده‌سازی این نظریه استفاده کردند. آن‌ها یک زبان سطح بالا به‌نام IPL (زبان پردازش اطلاعات) را ایجاد کردند تا به روند برنامه‌نویسی شتاب بیشتری ببخشند. برای سال‌های متمادی زبانی که این افراد خلق کردند، به زبان اصلی هوش مصنوعی تبدیل شد.

سیستم IBM 701 با یک مشکل عمده روبرو بود، این سیستم حافظه کافی برای پیاده‌سازی نظریه منطق نداشت. این مسئله باعث شد نوآوری دیگری به دنیای فناوری وارد شد این نوآوری جدید پردازش فهرست نام گرفت. این فناوری برای تخصیص پویا و بازپس‌گیری حافظه‌ای که به شکل پویا یک برنامه در آن اجرا شده بود استفاده می‌شد.

این نوآوری اجازه داد تا نظریه منطق به عنوان اولین برنامه هوش مصنوعی طراحی و پیاده‌سازی شود، اما استقبال چندانی از آن به عمل نیامد و برگزاری کنفرانس دارتموث نیز به شکل ناامید کننده‌ای به پایان رسید، به‌طوری که برخی به‌کارگیری عبارت “هوش مصنوعی” را مورد انتقاد قرار دادند. پس از این شکست تلخ، محققان سعی کردند راه‌حل‌های جایگزین دیگری همچون پردازش پردازش اطلاعات پیچیده را پیشنهاد دهند، اما نظریه پردازش اطلاعات پیچیده به اندازه هوش مصنوعی جذاب نبودند و این طرح نیز نیمه کاره رها شد. با این وجود مک کارتی، همچنان به ایده خود که پیاده‌سازی یک ایده نوآوری در هوش مصنوعی بود ادامه داد. در اواخر دهه ۵۰ میلادی، او زبان برنامه نویسی Lisp را توسعه داد که به دلیل سهولت در استفاده از داده‌های غیر عددی، اغلب در پروژه‌های هوش مصنوعی استفاده می‌شد.

عصر طلایی هوش مصنوعی

از سال ۱۹۵۶ تا ۱۹۷۴ صنعت هوش‌مصنوعی یکی از داغ‌ترین موضوعات دنیای فناوری بود. یک کاتالیزور مهم که در حوزه فناوری‌های کامپیوتری رشد بسیار سریعی داشت. سامانه‌های عظیم به تدریج جای خود را به سامانه‌هایی دادند که بر پایه مدارهای مجتمع کار می‌کنند و اندازه‌ای به مراتب کوچک‌تر از نمونه‌های قبلی داشتند که خود عامل مهمی در پیشرفت و شکوفایی هوش‌مصنوعی به شمار می‌رود. دولت فدرال سرمایه‌گذاری کلانی روی فناوری‌های جدید انجام داد که بی ارتباط با اهداف بلندپروازانه برنامه فضایی آپولو و پردازش‌های محاسباتی جنگ سرد نبود.

برنامه‌های دیگری نیز طراحی شدند که سعی داشتند سطح هوش مصنوعی را بهبود بخشند که موارد زیر بخشی از این تلاش‌ها بود:

STUDENT (1964): نرم‌افزار فوق توسط دنیل باربو به عنوان تز دکترای هوش مصنوعی زیر نظر ماروین مینسکی ساخته شد. این سیستم از پردازش زبان طبیعی (NLP) برای حل مشکلات جبر دانش‌آموزان دبیرستانی استفاده می‌کرد.

Computer Vision (1966): در داستانی افسانه‌ای ماروین مینسکی استادا دانشگاه MIT به دانشجویی به‌نام جرالد جی سوسمن گفت که تابستان را صرف متصل کردن یک دوربین به یک کامپیوتر کند و به کامپیوتر یاد دهد مناظری که دیده است را توصیف کند. جرالد جی سوسمن این‌کار را انجام داد و سیستمی طراحی کرد که قادر بود الگوهای اساسی را تشخیص دهد. برنامه‌ای که او طراحی کرد اولین برنامه بینایی ماشین لقب گرفت.

در این بازه زمانی، کتاب‌ها و مقاله‌های دانشگاهی متعددی منتشر شدند که پیرامون مباحثی همچون روش‌های بیزی، یادگیری ماشین و بینایی ماشین بودند، اما به‌طور کلی دو نظریه اصلی در مورد هوش مصنوعی وجود دارد. یکی از آن‌ها توسط مینسکی هدایت می‌شد که اعلام می‌کرد ما به سیستم های نمادین نیاز داریم، این بدان معنی است که هوش‌مصنوعی باید مبتنی بر منطق کامپیوترهای سنتی یا برنامه‌ریزی شده باشد، یعنی از رویکردهایی همچون If-then-Else استفاده کند.

نظریه دوم توسط فرانک روزنبلات مطرح شد که معتقد بود هوش مصنوعی باید از سیستم‌هایی مشابه مغز مانند شبکه‌های عصبی استفاده کند و به جای آن‌که بر پایه سلول‌های عصبی داخلی کار کند نقش یک گیرنده را داشته باشد. بر پایه این نظریه یک سیستم بر پایه داده‌هایی که دریافت می‌کند به مرور زمان نکاتی را یاد می‌گیرد.

  1. یک ورودی دریافت کن و آن‌را وارد کن و جواب را برای خروجی پرسپترون (perceptron) ارسال کن.
  2. اگر خروجی و الگو متناظر نیستند، در این حالت

الف) اگر خروجی باید ۰ باشد اما ۱ است، وزن را ۱ را کاهش بده.

ب) اگر خروجی باید ۱ باشد اما ۰ است، وزن ‌را ۱ واحد افزایش بده.

  1. مراحل ۱ و ۲ را تکرار کن تا نتایج دقیق شوند.

ساختمان | لوازم خانگی

دستاوردهای فوق به اندازه‌ای در پیشرفت هوش‌مصنوعی نقش موثر داشتند که نیویورک تایمز در مقاله‌ای فرضیه روزنبلات را ستود و این‌گونه نوشت: «اکنون نهادهای نظامی انتظار دارند کامپیوترهایشان بتواند راه بروند، صحبت کنند، مشاهده کنند، مطالبی بنویسند، قابلیت خودتکثیری داشته باشند و از وجود خود آگاه باشند.»

با وجود ارائه طرح پرسپترون هنوز هم مشکلات متعددی وجود داشت. اولین مشکل این بود که شبکه عصبی فقط یک لایه داشت (به دلیل کمبود توان محاسباتی در آن زمان)، تحقیقات مغز هنوز در مراحل اولیه بودند و علم هنوز به درجه بالایی از دانش در ارتباط با علوم شناختی دست پیدا نکرده بود.

در شماره آینده مبحث فوق را ادامه می‌دهیم.

دکمه بازگشت به بالا