بسیاری از افراد، یادگیری ماشین را فرزندخواندهی هوش مصنوعی، دستیار آن یا دوقلوی کمتر شناخته شدهاش میدانند. هرچند نام یادگیری ماشین، آن شهرت و اعتبار هوش مصنوعی را ندارد؛ اما اکنون تقریباً هر جنبهای از زندگی ما تحت تأثیر این فناوری و دستاوردهای آن قرار دارد.
در این مقاله از آی تی جو قصد داریم به تاریخچه این فناوری سرنوشتساز بپردازیم. هشت دهه پیش جرقهی این علم در ذهن دانشمندان علوم اعصاب، والتر پیتز (Walter Pitts) و وارن مککالاک (Warren McCulloch) پیش زده شد. مدلسازی ریاضی این دو نفر از یک شبکه عصبی در سال ۱۹۴۳، سال تولد توافقشدهی یادگیری ماشینی محسوب میشود.
یادگیری ماشین چیست؟
یادگیری ماشین شاخهای از هوش مصنوعی است که به کامپیوترها اجازه میدهد بدون برنامهنویسی صریح، از روی دادهها یاد بگیرند و پیشبینی کنند. به عبارت سادهتر، یادگیری ماشین به کامپیوترها این توانایی را میدهد که الگوها را در دادهها شناسایی کرده و بر اساس آنها تصمیمگیری کنند.
از برخی جهات، یادگیری ماشین ممکن است به نوعی مانند یک عروسکگردان برای هوش مصنوعی به شمار آید. بخش زیادی از آنچه امروز هوش مصنوعی مولد را پیش میبرد، از یادگیری ماشین در قالب مدلهای زبان بزرگ (LLM) به دست میآید. یادگیری ماشین با این مدلها حجم عظیمی از دادههای ورودی را تجزیه و تحلیل میکند تا الگوهای کلمات و عبارات را کشف کند.
بسیاری از کاربردهای بیسابقه هوش مصنوعی در کسبوکار و جامعه توسط قابلیتهای گسترده یادگیری ماشین پشتیبانی میشوند، از این قبیل میتوان به تجزیه و تحلیل اینستاگرام، ارزیابی ریسک، پیشبینی خرابی، مسیریابی جادهها یا خنثیسازی حملات سایبری اشاره کرد. امروزه یادگیری ماشین بر عملیات تجاری روزانه اکثر صنایع از جمله تجارت الکترونیک، تولید، مالی، بیمه و داروسازی تأثیر میگذارد.
سیر تکاملی و تاریخچه یادگیری ماشین
از دهه ۱۹۴۰، یادگیری ماشین سال به سال پیشرفت کرد و به جایی رسید که امروز باارزشترین شرکتهای جهان از جمله مایکروسافت، اپل، گوگل و متا مبالغ هنگفتی را در این زمینه سرمایهگذاری میکنند:
- در دهه ۱۹۵۰، پیشگامانی چون تورینگ، ساموئل، مککارتی، مینسکی، ادمانز و نیول، چشمانداز یادگیری ماشین را شکل دادند. در این دوره، آزمون تورینگ، اولین شبکه عصبی مصنوعی و اصطلاحات هوش مصنوعی و یادگیری ماشین مطرح شدند.
- در دهه ۱۹۶۰، الیزای (Eliza) اولین چتبات، شکی (Shakey) اولین ربات هوشمند متحرک، استنفورد کارت (Stanford Cart) یک وسیله نقلیه کنترل از راه دور ویدیویی و پایههای علم یادگیری عمیق (Deep Learning) توسعه یافتند.
- در دهههای ۱۹۷۰ و ۱۹۸۰، برنامههایی که الگوها و کاراکترهای دستنوشته را تشخیص میدادند، مشکلات را بر اساس انتخاب طبیعی حل میکردند، اقدامات مناسب را جستجو میکردند، قوانینی برای حذف اطلاعات غیرضروری ایجاد میکردند و مانند یک کودک یاد میگرفتند که کلمات را تلفظ کند، برجسته شدند.
- در دهه ۱۹۹۰، برنامههایی با قابلیت بازی تختهنرد و شطرنج، برترین بازیکنان جهان را به چالش کشیدند.
- در قرن بیست و یکم و دهههای ۲۰۰۰ و ۲۰۱۰، دستیارهای شخصی، شبکههای مولد متقابل، تشخیص چهره، دیپفیک، سنسورهای حرکتی، خودروهای خودران و ایجاد محتوا و تصویر از طریق ابزارهای هوش مصنوعی مولد ظهور کردند.
دهه ۱۹۴۰ تا ۱۹۵۰
۱۹۴۳: والتر پیتز منطقدان و وارن مککالو عصبشناس، اولین مدل ریاضی از یک شبکه عصبی را برای ایجاد الگوریتمهایی که از فرآیندهای تفکر انسانی تقلید میکنند، منتشر کردند.
۱۹۴۹: دونالد هب کتاب «سازماندهی رفتار: یک نظریه نوروپسیکولوژیکی» را منتشر کرد که کتابی بنیادی در توسعه یادگیری ماشین با تمرکز بر چگونگی ارتباط رفتار و تفکر از نظر فعالیت مغز با شبکههای عصبی است.
۱۹۵۰: آلن تورینگ کتاب «ماشینحساب و هوش» را منتشر کرد که آزمون تورینگ را معرفی کرد و دربهای علمی که بعدها به هوش مصنوعی معروف شد را گشود.
۱۹۵۱: ماروین مینسکی و دین ادمانز، اولین شبکه عصبی مصنوعی (ANN) را با استفاده از ۳۰۰۰ لامپ برای شبیهسازی شبکهای از ۴۰ نورون توسعه دادند.
۱۹۵۲: آرتور ساموئل برنامه بازی چکرز ساموئل را ایجاد کرد که اولین برنامه خودآموز جهان برای بازی کردن بود.
دهه ۱۹۵۰ تا ۱۹۶۰
۱۹۵۶: جان مککارتی، ماروین مینسکی، ناتانیل راچستر و کلود شانون اصطلاح هوش مصنوعی را در پیشنهادی برای یک کارگاه که به عنوان رویداد بنیادی در زمینه هوش مصنوعی شناخته میشود، ابداع کردند.
۱۹۵۶: آلن نیول، هربرت سایمون و کلیف شا، «نظریه منطق» را نوشتند که اولین برنامه هوش مصنوعی بود که عمداً برای انجام استدلال خودکار طراحی شده بود.
۱۹۵۸: فرانک روزنبلات پرسپترون را توسعه داد، یک ANN اولیه که میتوانست از دادهها یاد بگیرد و پایه و اساس شبکههای عصبی مدرن شد.
۱۹۵۹: آرتور ساموئل اصطلاح یادگیری ماشین را در یک مقاله بنیادی ابداع کرد که توضیح میداد کامپیوتر را میتوان برنامهریزی کرد تا از برنامهنویس خود بهتر عمل کند.
۱۹۶۰: جیمز آدامز، دانشجوی کارشناسی ارشد مهندسی مکانیک، استنفورد کارت را برای حمایت از تحقیقات خود در مورد مشکل کنترل یک وسیله نقلیه از راه دور با استفاده از اطلاعات ویدیویی ساخت.
دهه ۱۹۶۰ تا ۱۹۷۰
۱۹۶۳: دونالد میچی برنامهای به نام MENACE یا Matchbox Educable Noughts and Crosses Engine را توسعه داد که یاد گرفت چگونه یک بازی دوز را اجرا کند.
۱۹۶۵: ادوارد فایگنباوم، بروس جی بوکانان، جوشوا لدربرگ و کارل دجراسی، DENDRAL را توسعه دادند که اولین سیستم خبره بود و به شیمیدانان آلی در شناسایی مولکولهای آلی ناشناخته کمک میکرد.
۱۹۶۶: جوزف ویزنبوم برنامه کامپیوتری الیزای ایجاد کرد که قادر به برقراری مکالمه با انسانها و وادار کردن آنها به باور داشتن اینکه نرمافزار دارای احساسات انسانی است، بود.
۱۹۶۶: موسسه تحقیقاتی استنفورد، ربات شکی (Shakey) را توسعه داد که اولین ربات هوشمند متحرک جهان بود که هوش مصنوعی، بینایی کامپیوتری، قابلیت ناوبری و پردازش زبان طبیعی (NLP) را ترکیب میکرد. این ربات به عنوان پدربزرگ خودروهای خودران و پهپادها شناخته شد.
دهه ۱۹۶۰ تا ۱۹۷۰
۱۹۶۷: الگوریتم نزدیکترین همسایه به کامپیوترها توانایی تشخیص الگوهای اولیه را داد و توسط فروشندگان دورهگرد برای برنامهریزی کارآمدترین مسیرها از طریق نزدیکترین شهرها استفاده شد.
۱۹۶۹: آرتور بریسون و یو-چی هو الگوریتم یادگیری پس انتشار را برای فعال کردن ANNهای چند لایه توصیف کردند که پیشرفتی نسبت به پرسپترون و پایه ای برای یادگیری عمیق بود.
۱۹۶۹: ماروین مینسکی و سیمور پاپرت کتاب پرسپترونها را منتشر کردند که محدودیتهای شبکههای عصبی ساده را توصیف میکرد و باعث کاهش تحقیقات شبکه عصبی و رونق تحقیقات هوش مصنوعی نمادین شد.
دهه ۱۹۷۰ تا ۱۹۸۰
۱۹۷۳: جیمز لایتهیل گزارش «هوش مصنوعی: یک بررسی کلی» را منتشر کرد که منجر به کاهش قابل توجه حمایت دولت بریتانیا از تحقیقات هوش مصنوعی شد.
۱۹۷۹: کونیهیکو فوکوشیما کار خود را بر روی نئوکوگنیترون، یک ANN سلسله مراتبی و چند لایه برای وظایف تشخیص الگو منتشر کرد.
۱۹۸۱: جرالد دجونگ یادگیری مبتنی بر توضیح را معرفی کرد که در آن کامپیوتر یاد میگرفت دادههای آموزشی را تجزیه و تحلیل کند و یک قانون کلی برای حذف اطلاعات بیاهمیت ایجاد کند.
۱۹۸۵: تری سجناوسکی برنامهای به نام NetTalk ایجاد کرد که یاد گرفت کلمات را مانند یک کودک یاد بگیرد.
دهه ۱۹۸۰ تا ۱۹۹۰
۱۹۸۹: یان لوکان، یوشوا بنجیو و پاتریک هافنر نشان دادند که چگونه میتوان از شبکههای عصبی کانولوشن (CNN) برای تشخیص کاراکترهای دستنوشته استفاده کرد و نشان داد که شبکههای عصبی میتوانند برای مشکلات دنیای واقعی اعمال شوند.
۱۹۸۹: کریستوفر واتکینز Q-learning را توسعه داد، یک الگوریتم تقویت بدون مدل که به دنبال بهترین اقدام برای انجام در هر حالت فعلی بود.
۱۹۸۹: Axcelis اولین بسته نرمافزاری الگوریتم ژنتیک تجاری برای رایانههای شخصی به نام Evolver را منتشر کرد.
دهه ۱۹۹۰ تا ۲۰۰۰
۱۹۹۲: جرالد تسارو TD-Gammon را اختراع کرد، برنامهای قادر به بازی بکگمون بر اساس یک ANN که با بازیکنان برتر بکگمون رقابت میکرد.
۱۹۹۸: تیمی به رهبری یان لوکان مجموعه دادهای به نام پایگاه داده MNIST یا پایگاه داده اصلاحشده موسسه ملی استانداردها و فناوری را منتشر کرد که به طور گسترده به عنوان یک معیار ارزیابی تشخیص دستنوشته پذیرفته شد.
۲۰۰۰: محققان دانشگاه مونترال “یک مدل زبانی احتمالی عصبی” را منتشر کردند که روشی را برای مدلسازی زبان با استفاده از شبکههای عصبی پیشرو پیشنهاد کرد.
دهه ۲۰۰۰ تا ۲۰۱۰
۲۰۰۲: Torch، اولین کتابخانه یادگیری ماشین منبع باز منتشر شد که رابطهایی برای الگوریتمهای یادگیری عمیق پیادهسازی شده در C ارائه میداد.
۲۰۰۶: جفری هینتون، روانشناس و دانشمند کامپیوتر، اصطلاح یادگیری عمیق را برای توصیف الگوریتمهایی ابداع کرد که به کامپیوترها کمک میکند تا انواع مختلف اشیاء و کاراکترهای متنی را در تصاویر و ویدیوها تشخیص دهند.
۲۰۰۶: فیفی لی شروع به کار روی پایگاه داده بصری ImageNet کرد که در سال ۲۰۰۹ معرفی شد. این پایگاه داده به کاتالیزوری برای رونق هوش مصنوعی و اساس یک رقابت سالانه برای الگوریتمهای تشخیص تصویر تبدیل شد.
۲۰۰۶: نتفلیکس مسابقه جایزه نتفلیکس را با هدف ایجاد یک الگوریتم یادگیری ماشین دقیقتر از نرمافزار توصیه کاربر اختصاصی نتفلیکس راهاندازی کرد.
۲۰۰۶: واتسون IBM با هدف اولیه شکست دادن یک انسان در مسابقه کوییز جئپاردی! آغاز به کار کرد.
دهه ۲۰۱۰ تا ۲۰۲۰
۲۰۱۰: مایکروسافت دستگاه ورودی سنسور حرکتی کینکت (Kinect) را برای کنسول بازی ایکس باکس ۳۶۰ منتشر کرد که میتوانست ۲۰ ویژگی حرکتی مختلف انسان را ۳۰ بار در ثانیه ردیابی کند.
۲۰۱۰: آنتونی گلدبلوم و بن هامر پلتفرم Kaggle را برای مسابقات یادگیری ماشین راهاندازی کردند.
۲۰۱۱: یورگن شمیدهوبر، دان کلاودیو سیراسان، اولی مایر و جاناتان ماسکی اولین CNN را برای دستیابی به عملکرد «فرا انسانی» با برنده شدن در رقابت تشخیص علائم ترافیکی آلمان توسعه دادند.
۲۰۱۱: ابررایانه واتسون IBM توانست کن جنینگز، قهرمان تمام دوران مسابقه تلویزیونی جئوپاردی (Jeopardy!) را شکست دهد.
۲۰۱۲: جفری هینتون، ایلیا سوتسکیور و الکس کریژفسکی یک معماری CNN عمیق را معرفی کردند که چالش تشخیص بصری مقیاس بزرگ ImageNet را برنده شد و انفجار تحقیقات و اجرای یادگیری عمیق را آغاز کرد.
۲۰۱۳: شرکت DeepMind یادگیری تقویتی عمیق را معرفی کرد، یک CNN که بر اساس پاداشها یاد میگرفت و با تکرار بازیها به سطح متخصصان انسانی دست مییافت.
۲۰۱۴: یان گودفلو و همکارانش شبکههای مولد تخاصمی را اختراع کردند که نوعی از چارچوبهای یادگیری ماشینی هستند که برای تولید عکس، تغییر تصاویر و ایجاد دیپفیکها استفاده میشوند.
۲۰۱۴: گوگل پروژه یادگیری ماشین بزرگ مقیاس سیبیل را برای توصیههای پیشبینیکننده کاربر رونمایی کرد.
۲۰۱۴: دیدریک کینگما و مکس ولینگ اتوکدهای واریاسیونی را برای تولید تصاویر، ویدیوها و متن معرفی کردند.
۲۰۱۴: فیسبوک دیپفیس را توسعه داد، یک سیستم تشخیص چهره مبتنی بر یادگیری عمیق که میتواند چهرههای انسان را در تصاویر دیجیتال با دقت نزدیک به انسان شناسایی کند.
۲۰۱۶: اوبر برنامه آزمایشی خودروهای خودران را در پیتسبورگ برای گروهی از کاربران منتخب آغاز کرد.
۲۰۱۷: محققان گوگل مفهوم تبدیلکنندهها را در مقاله تأثیرگذار «توجه همه چیزی است که نیاز دارید» توسعه دادند که تحقیقات بعدی در مورد ابزارهایی را که میتوانند به طور خودکار متن بدون برچسب را به مدلهای زبانی بزرگ (LLM) تبدیل کنند، الهام بخشید.
۲۰۱۸: شرکت OpenAI مدل زبانی GPT را منتشر کرد که راه را برای LLMهای بعدی هموار کرد.
۲۰۱۹: مایکروسافت مدل زبانی مولد تورینگ با ۱۷ میلیارد پارامتر را راهاندازی کرد.
۲۰۱۹: الگوریتم یادگیری عمیق گوگل AI و مرکز پزشکی لانگون در تشخیص بالقوه سرطان ریه از رادیولوژیستها پیشی گرفت.
از ۲۰۲۰ تاکنون
۲۰۲۱: OpenAI سیستم هوش مصنوعی چندوجهی Dall-E را معرفی کرد که میتواند تصاویر را از اعلانهای متنی تولید کند.
۲۰۲۲: دیپ مایند «آلفاتنسور» را برای کشف الگوریتمهای جدید، کارآمد و قابل اثبات رونمایی کرد.
۲۰۲۲: OpenAI در ماه نوامبر چتبات ChatGPT را برای ارائه یک رابط مبتنی بر چت به مدل زبانی GPT 3.5 خود منتشر کرد.
۲۰۲۳: OpenAI مدل زبانی چند وجهی GPT-4 را معرفی کرد که میتواند هم از متن و هم از تصاویر ورودی دریافت کند.
۲۰۲۳: ایلان ماسک، استیو وزنیاک و هزاران امضاکننده دیگر خواستار توقف شش ماهه آموزش “سیستمهای هوش مصنوعی قدرتمندتر از GPT-4” شدند.
۲۰۲۴: انویدیا به عنوان تولیدکننده برتر تراشههای هوش مصنوعی و گرافیک، سال موفقی را پشت سر گذاشت و با اعلام مجموعهای از ارتقاءها، از جمله بلکول و ACE، که به گفته جیسون هوانگ، بنیانگذار و مدیرعامل، “تعامل با رایانهها را به اندازه تعامل با انسانها طبیعی میکند”، خبر داد. این شرکت ۳۰ ساله به جمع شرکتهای با ارزش بازار ۳ تریلیون دلاری مانند مایکروسافت و اپل پیوست.
۲۰۲۴: محققان دانشگاه پرینستون با همکاری آژانس پروژههای تحقیقاتی پیشرفته دفاعی ایالات متحده برای توسعه یک تراشه هوش مصنوعی فشرده و کممصرفتر که قادر به مدیریت بارهای کاری مدرن هوش مصنوعی باشد، همکاری کردند.
۲۰۲۴: مایکروسافت ابزاری برای پیشبینی آب و هوا به نام Aurora را راهاندازی کرد که میتواند آلودگی هوا را در سطح جهانی در کمتر از یک دقیقه پیشبینی کند.
۲۰۲۴: رقابت چتباتهای چند وجهی بین ChatGPT، مایکروسافت کوپایلت (بینگچت سابق) و جمینای گوگل (بارد سابق) داغ شد.
پس از سال ۲۰۲۴ باید انتظار چه پیشرفتهایی داشته باشیم؟
یادگیری ماشین همچنان به طور همافزایی از پیشرفتهای هوش مصنوعی مادر غولپیکر خود پشتیبانی و حمایت خواهد کرد. هوش مصنوعی مولد در کوتاهمدت و در نهایت هدف نهایی هوش مصنوعی یعنی هوش عمومی مصنوعی در بلندمدت، تقاضای بیشتری برای دانشمندان داده و متخصصان یادگیری ماشین ایجاد خواهد کرد.
رابطهای چتبات چند وجهی بالغتر و آگاهتر با LLMها میتوانند به ابزار هوش مصنوعی روزمره برای کاربران از همه اقشار تبدیل شوند تا به سرعت متن، تصویر، ویدیو، صدا و کد را تولید کنند که معمولاً تولید آن برای انسانها ساعتها، روزها یا ماهها طول میکشد.
یادگیری ماشین پیشرفتهای بیشتری در هوش مصنوعی خلاق، شرکتهای توزیعشده، بازی، سیستمهای خودمختار، هایپر اتوماسیون و امنیت سایبری ایجاد خواهد کرد. طبق گزارش MarketsandMarkets، بازار هوش مصنوعی سالانه ۳۵ درصد رشد میکند و تا سال ۲۰۳۰ به بیش از ۱/۳ تریلیون دلار میرسد.
گارتنر تخمین میزند که بخش قابل توجهی از برنامههای تجاری هوش مصنوعی گفتگو محور را در خود جای خواهند داد و بخشی از برنامههای جدید به طور خودکار توسط هوش مصنوعی بدون دخالت انسان تولید خواهند شد. در این فرآیند، مدلهای کسبوکار و نقشهای شغلی میتوانند در یک چشم به هم زدن تغییر کنند.
انتظار میرود با فراگیرشدن یادگیری ماشین و پیچیدهتر مدلهای آن، پیشرفتهایی در فناوریهای زیر حاصل شود:
- هوش مصنوعی چند وجهی برای درک ورودیهای متنی و درک حرکات و احساسات انسان با ترکیب متن عددی، داده، تصویر و ویدیو.
- یادگیری عمیق برای حل دقیقتر مشکلات پیچیده واقعی با تشخیص الگوها در عکسها، متن، صدا و سایر دادهها و خودکارسازی کارهایی که معمولاً نیاز به هوش انسانی دارند.
- مدلهای اقدام بزرگ یا LAM برای درک و پردازش انواع مختلف ورودی داده و همچنین قصد انسان برای انجام روالهای کامل انتها به انتها.
- AutoML برای مدیریت بهتر دادهها و ساخت سریعتر مدلهای هوش مصنوعی.
- ML تعبیه شده یا TinyML برای استفاده کارآمدتر از محاسبات لبه (Edge Computing) در پردازش بلادرنگ.
- MLOps برای سادهسازی توسعه، آموزش و استقرار سیستمهای یادگیری ماشین.
- پلتفرمهای کمکد/ کدلس برای توسعه و پیادهسازی مدلهای ML بدون نیاز به برنامهنویسی گسترده یا تخصص فنی.
- یادگیری بدون نظارت برای برچسبگذاری دادهها و مهندسی ویژگی بدون دخالت انسان.
- یادگیری تقویتی برای توزیع پاداش یا جریمه به الگوریتمها بر اساس اقدامات آنها.
- NLP برای هوش مصنوعی گفتگو روانتر در تعاملات مشتری و توسعه برنامه.
- بینایی کامپیوتری برای تشخیص موثرتر مراقبتهای بهداشتی و پشتیبانی بیشتر از فناوریهای واقعیت افزوده و مجازی.
- ایجاد دوقلوهای دیجیتال برای شبیهسازی، تشخیص و توسعه در طیف گستردهای از کاربردها از سیستمهای شهر هوشمند تا بخشهای بدن انسان.
- پردازش نورومورفیک برای تقلید از سلولهای مغز انسان، امکان کار همزمان برنامههای کامپیوتری به جای اجرای ترتیبی را فراهم میکند.
- رابطهای مغز و کامپیوتر برای بازگرداندن عملکرد مفید به افراد دارای معلولیت ناشی از اختلالات عصبی عضلانی مانند ALS، فلج مغزی، سکته مغزی یا آسیب نخاعی. در میان همه این تحولات، کسبوکار و جامعه همچنان با مسائل مربوط به تعصب، اعتماد، حریم خصوصی، شفافیت، پاسخگویی، اخلاق و انسانیت مواجه خواهند شد که میتواند بر زندگی و معیشت ما تأثیر مثبت یا منفی بگذارد.