در دهههای اخیر، پیشرفتهای چشمگیری در حوزهی هوش مصنوعی وجود داشته که نظریهها و مدلهای متعددی را به وجود آوردهاند. یکی از این نظریهها شبکههای عصبی عمیق هستند که به وسیلهی ساختاری از چندین لایهی پردازشی که به صورت مشابه به ساختمان مغز انسان عمل میکنند، اقدام به یادگیری و انجام وظایف پیچیده میکنند. یادگیری ژرف، یکی دیگر از مدلهای مهم هوش مصنوعی است که از الگوریتمهای پیچیدهتر و دقیقتری استفاده میکند تا به تحلیل دادههای پیچیده و پیشبینی دقیق پرداخته و برای کاربردهای گوناگون از جمله تصویربرداری و پردازش زبان طبیعی به کار برود.
علاوه بر این، الگوریتمهای یادگیری تقویتی نیز به طور گستردهای در مسائلی مانند بازیهای رایانهای و رباتیک کاربرد دارند و بر اساس تعامل با محیط و دریافت پاداش یاد میگیرند. هوش مصنوعی تقویتی، میتواند به ایجاد عاملهای هوشمندی که تصمیمهای بهتری برای حل مسائل پیچیده بگیرند، کمک کند.
مجتمع فنی تهران نیز به منظور ارائه دورههای آموزشی متخصص در حوزه شبکه و امنیت، دورههای مختلفی را برگزار میکند که شامل آموزشهای عملی و عمیق در زمینه مدیریت و بهینهسازی شبکه میباشند. این دورهها به دانشجویان این امکان را میدهند تا با استفاده از بهترین شیوهها و تجربیات عملی، به مهارتهای لازم برای مدیریت شبکههای پیچیده و پیشگیری از حملات امنیتی پی ببرند.
در مطلب فوق به دنیای الگوریتمها و ماشینهای هوشمند سلام کنید مقدمهای کوتاه در خصوص هوش مصنوعی و تلاشهای انجام شده در این حوزه ارائه کردیم و به دستاوردهای مهم این حوزه اشاره کردیم.
در حالی که نوربرت وینر فرضیههای مختلفی را پیشنهاد داد، اما مشهورترین آنها در ارتباط با فرمانشناسی (cybernetics) بود. این فرضیه بر درک کنترل و ارتباط با حیوانات، مردم و ماشینها متمرکز است و سعی دارد اهمیت حلقههای بازخوردی را نشان دهد. در سال ۱۹۴۸، وینر مقاله فرمانشناسی: نحوه کنترل و برقراری ارتباط با ماشینها را منتشر کرد. این کتاب اگرچه به عنوان یک اثر علمی شناخته میشود، اما سرشار از معادلات پیچیدهای است. به همین دلیل به یکی از پرفروش ترین کتابهای علمی تبدیل شد که نامش در فهرست کتابهای پر فروش نیویورک تایمز نیز وارد شد.
فرمانشناسی (سایبرنتیک)
داستان اصلی
علاقه جان مک کارتی به کامپیوترها در سال ۱۹۴۸ هنگامی که وی در سمیناری تحت عنوان “مکانیسمهای مغزی در رفتار” شرکت کرد، به اوج خود رسید. سمینار مذکور حول این محور برگزار شد که چگونه ماشینها میتوانند در نهایت فکر کنند. برخی از شرکتکنندگان در این سمینار از پیشگامان فناوریهای نوین بودند که جان فون نویمان، آلن تورینگ و کلود شانون از شاخصترین چهرههای این سمینار بودند. مک کارتی زندگی خود را وقف صنعت کامپیوتر کرد و برای مدت زمان مدیدی در آزمایشگاههای بل به تحقیق و پژوهش مشغول به کار شد. او در سال ۱۹۵۶، به مدت ۱۰ هفته در دانشگاه دارتموث یک پروژه تحقیقاتی انجام داد. او پژوهش خود را “مطالعه روی هوشمصنوعی” نامگذاری کرد. این اولین بار بود که از اصطلاح هوش مصنوعی استفاده شد. همکاران او در این پژوهش عملی استاتید برجسته دانشگاه، ماروین مینسکی، ناتانیل روچستر، آلن نیول، ا. جی سلفریج، ریموند سلیمانوف و کلود شانون بودند. همه آنها با گذشت زمان به یکی از مهرههای کلیدی دنیای هوش مصنوعی تبدیل شدند. اهداف این پژوهش تحقیقاتی بلندپروازانه به شرح زیر بود:
این تحقیق بر اساس این فرضیه انجام شد که هر جنبهای از یادگیری یا هر ویژگی که ریشه آن هوش باشد را میتوان به شکلی توصیف و تشریح کرد که امکان شبیهسازی آن در یک ماشین وجود داشته باشد. تلاش برای پیدا کردن راهحلی برای اینکه ماشینها صحبت کنند، پیدا کردن راهحلی برای شکل دادن به مفاهیم و موضوعات انتزاعی، حل برخی از مشکلاتی که انسانها در پیدا کردن پاسخ برای آنها ناتوان هستند و در نهایت پیادهسازی راهحلی که ماشینها بتوانند عملکرد خود را بهبود بخشند از بخشهای کلیدی این تحقیق بود. مک کارتی در دفاع از پژوهش خود در کنفرانسی که در همین رابطه برگزار شد چنین گفت: «ما فکر میکنیم اگر یک گروه از دانشمندان را به دقت انتخاب کنیم تا یک تابستان روی مفاهیم یاد شده کار کنند، پیشرفت قابل توجهی در حل یک یا چند مشکلات خواهیم داشت. اما این حرف صحیح نیست.»
پیادهسازی نظریه منطق (Logic Theorist) کار سادهای نبود. نیول، شاو و سایمون از یک مدل IBM 701 که از زبان ماشین استفاده میکرد، برای پیادهسازی این نظریه استفاده کردند. آنها یک زبان سطح بالا بهنام IPL (زبان پردازش اطلاعات) را ایجاد کردند تا به روند برنامهنویسی شتاب بیشتری ببخشند. برای سالهای متمادی زبانی که این افراد خلق کردند، به زبان اصلی هوش مصنوعی تبدیل شد.
سیستم IBM 701 با یک مشکل عمده روبرو بود، این سیستم حافظه کافی برای پیادهسازی نظریه منطق نداشت. این مسئله باعث شد نوآوری دیگری به دنیای فناوری وارد شد این نوآوری جدید پردازش فهرست نام گرفت. این فناوری برای تخصیص پویا و بازپسگیری حافظهای که به شکل پویا یک برنامه در آن اجرا شده بود استفاده میشد.
این نوآوری اجازه داد تا نظریه منطق به عنوان اولین برنامه هوش مصنوعی طراحی و پیادهسازی شود، اما استقبال چندانی از آن به عمل نیامد و برگزاری کنفرانس دارتموث نیز به شکل ناامید کنندهای به پایان رسید، بهطوری که برخی بهکارگیری عبارت “هوش مصنوعی” را مورد انتقاد قرار دادند. پس از این شکست تلخ، محققان سعی کردند راهحلهای جایگزین دیگری همچون پردازش پردازش اطلاعات پیچیده را پیشنهاد دهند، اما نظریه پردازش اطلاعات پیچیده به اندازه هوش مصنوعی جذاب نبودند و این طرح نیز نیمه کاره رها شد. با این وجود مک کارتی، همچنان به ایده خود که پیادهسازی یک ایده نوآوری در هوش مصنوعی بود ادامه داد. در اواخر دهه ۵۰ میلادی، او زبان برنامه نویسی Lisp را توسعه داد که به دلیل سهولت در استفاده از دادههای غیر عددی، اغلب در پروژههای هوش مصنوعی استفاده میشد.
عصر طلایی هوش مصنوعی
از سال ۱۹۵۶ تا ۱۹۷۴ صنعت هوشمصنوعی یکی از داغترین موضوعات دنیای فناوری بود. یک کاتالیزور مهم که در حوزه فناوریهای کامپیوتری رشد بسیار سریعی داشت. سامانههای عظیم به تدریج جای خود را به سامانههایی دادند که بر پایه مدارهای مجتمع کار میکنند و اندازهای به مراتب کوچکتر از نمونههای قبلی داشتند که خود عامل مهمی در پیشرفت و شکوفایی هوشمصنوعی به شمار میرود. دولت فدرال سرمایهگذاری کلانی روی فناوریهای جدید انجام داد که بی ارتباط با اهداف بلندپروازانه برنامه فضایی آپولو و پردازشهای محاسباتی جنگ سرد نبود.
برنامههای دیگری نیز طراحی شدند که سعی داشتند سطح هوش مصنوعی را بهبود بخشند که موارد زیر بخشی از این تلاشها بود:
STUDENT (1964): نرمافزار فوق توسط دنیل باربو به عنوان تز دکترای هوش مصنوعی زیر نظر ماروین مینسکی ساخته شد. این سیستم از پردازش زبان طبیعی (NLP) برای حل مشکلات جبر دانشآموزان دبیرستانی استفاده میکرد.
Computer Vision (1966): در داستانی افسانهای ماروین مینسکی استادا دانشگاه MIT به دانشجویی بهنام جرالد جی سوسمن گفت که تابستان را صرف متصل کردن یک دوربین به یک کامپیوتر کند و به کامپیوتر یاد دهد مناظری که دیده است را توصیف کند. جرالد جی سوسمن اینکار را انجام داد و سیستمی طراحی کرد که قادر بود الگوهای اساسی را تشخیص دهد. برنامهای که او طراحی کرد اولین برنامه بینایی ماشین لقب گرفت.
در این بازه زمانی، کتابها و مقالههای دانشگاهی متعددی منتشر شدند که پیرامون مباحثی همچون روشهای بیزی، یادگیری ماشین و بینایی ماشین بودند، اما بهطور کلی دو نظریه اصلی در مورد هوش مصنوعی وجود دارد. یکی از آنها توسط مینسکی هدایت میشد که اعلام میکرد ما به سیستم های نمادین نیاز داریم، این بدان معنی است که هوشمصنوعی باید مبتنی بر منطق کامپیوترهای سنتی یا برنامهریزی شده باشد، یعنی از رویکردهایی همچون If-then-Else استفاده کند.
نظریه دوم توسط فرانک روزنبلات مطرح شد که معتقد بود هوش مصنوعی باید از سیستمهایی مشابه مغز مانند شبکههای عصبی استفاده کند و به جای آنکه بر پایه سلولهای عصبی داخلی کار کند نقش یک گیرنده را داشته باشد. بر پایه این نظریه یک سیستم بر پایه دادههایی که دریافت میکند به مرور زمان نکاتی را یاد میگیرد.
- یک ورودی دریافت کن و آنرا وارد کن و جواب را برای خروجی پرسپترون (perceptron) ارسال کن.
- اگر خروجی و الگو متناظر نیستند، در این حالت
الف) اگر خروجی باید ۰ باشد اما ۱ است، وزن را ۱ را کاهش بده.
ب) اگر خروجی باید ۱ باشد اما ۰ است، وزن را ۱ واحد افزایش بده.
- مراحل ۱ و ۲ را تکرار کن تا نتایج دقیق شوند.
دستاوردهای فوق به اندازهای در پیشرفت هوشمصنوعی نقش موثر داشتند که نیویورک تایمز در مقالهای فرضیه روزنبلات را ستود و اینگونه نوشت: «اکنون نهادهای نظامی انتظار دارند کامپیوترهایشان بتواند راه بروند، صحبت کنند، مشاهده کنند، مطالبی بنویسند، قابلیت خودتکثیری داشته باشند و از وجود خود آگاه باشند.»
با وجود ارائه طرح پرسپترون هنوز هم مشکلات متعددی وجود داشت. اولین مشکل این بود که شبکه عصبی فقط یک لایه داشت (به دلیل کمبود توان محاسباتی در آن زمان)، تحقیقات مغز هنوز در مراحل اولیه بودند و علم هنوز به درجه بالایی از دانش در ارتباط با علوم شناختی دست پیدا نکرده بود.
در شماره آینده مبحث فوق را ادامه میدهیم.