۸ مرداد

مدل های هوش مصنوعی

محققان MIT پروژه قابلیت تفسیر خودکار را در مدل‌های هوش مصنوعی با سرعت به پیش می برند.

MAIA یک عامل چندوجهی است. و می تواند به طور تکراری آزمایش هایی را برای درک بهتر اجزای مختلف سیستم های هوش مصنوعی طراحی کند.
از آنجایی که مدل‌های هوش مصنوعی به طور روز افزون رایج شده اند، و در بخش‌های مختلفی مانند مراقبت‌های بهداشتی، مالی، آموزش، حمل‌ونقل و سرگرمی ادغام گردیده اند، درک نحوه عملکرد آن‌ها بسیار مهم است. با عمیق‌تر کردن درک خود از مدل های نوشتاری الگوریتم های هوش مصنوعی و تفسیر مکانیسم‌های زیربنایی مدل‌های هوش مصنوعی ما قادر خواهیم بود تا آنها را از نظر ایمنی و سوگیری بررسی کنیم.
برای مثال تصور کنید که اگر بتوانیم مستقیماً مغز انسان را با دستکاری هر یک از نورون های فردی آن بررسی کنیم تا نقش آنها را در درک یک شی خاص بررسی کنیم. در حالی که چنین آزمایشی در مغز انسان بسیار تهاجمی خواهد بود، در نوع دیگری از شبکه عصبی در مدل های هوش مصنوعی امکان پذیرتر است، البته شبکه ای که مطمئنا مصنوعی خواهد بود. با این حال، تا حدودی شبیه به مغز انسان مدل‌های مصنوعی حاوی میلیون‌ها نورون برای مطالعه دستی بسیار بزرگ و پیچیده هستند، و تفسیرپذیری در مقیاس را به یک کار بسیار چالش برانگیز تبدیل می‌کند.
برای رسیدگی به این موضوع، محققان آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) تصمیم گرفتند رویکردی خودکار برای تفسیر مدل‌های بینایی مصنوعی که ویژگی‌های مختلف تصاویر را ارزیابی می‌کنند، اتخاذ کنند. آنها «MAIA» (معاون تفسیرپذیری خودکار چند وجهی) را توسعه دادند. سیستمی که انواع وظایف تفسیرپذیری شبکه عصبی را، با استفاده از ستون فقرات و (مدل زبان بینایی ) بر روی سایر سیستم‌های هوش مصنوعی خودکار می‌کند.

 

دیدگاه شما

نشانی ایمیل شما منتشر نخواهد شد.