محققان MIT پروژه قابلیت تفسیر خودکار را در مدلهای هوش مصنوعی با سرعت به پیش می برند.
MAIA یک عامل چندوجهی است. و می تواند به طور تکراری آزمایش هایی را برای درک بهتر اجزای مختلف سیستم های هوش مصنوعی طراحی کند.
از آنجایی که مدلهای هوش مصنوعی به طور روز افزون رایج شده اند، و در بخشهای مختلفی مانند مراقبتهای بهداشتی، مالی، آموزش، حملونقل و سرگرمی ادغام گردیده اند، درک نحوه عملکرد آنها بسیار مهم است. با عمیقتر کردن درک خود از مدل های نوشتاری الگوریتم های هوش مصنوعی و تفسیر مکانیسمهای زیربنایی مدلهای هوش مصنوعی ما قادر خواهیم بود تا آنها را از نظر ایمنی و سوگیری بررسی کنیم.
برای مثال تصور کنید که اگر بتوانیم مستقیماً مغز انسان را با دستکاری هر یک از نورون های فردی آن بررسی کنیم تا نقش آنها را در درک یک شی خاص بررسی کنیم. در حالی که چنین آزمایشی در مغز انسان بسیار تهاجمی خواهد بود، در نوع دیگری از شبکه عصبی در مدل های هوش مصنوعی امکان پذیرتر است، البته شبکه ای که مطمئنا مصنوعی خواهد بود. با این حال، تا حدودی شبیه به مغز انسان مدلهای مصنوعی حاوی میلیونها نورون برای مطالعه دستی بسیار بزرگ و پیچیده هستند، و تفسیرپذیری در مقیاس را به یک کار بسیار چالش برانگیز تبدیل میکند.
برای رسیدگی به این موضوع، محققان آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) تصمیم گرفتند رویکردی خودکار برای تفسیر مدلهای بینایی مصنوعی که ویژگیهای مختلف تصاویر را ارزیابی میکنند، اتخاذ کنند. آنها «MAIA» (معاون تفسیرپذیری خودکار چند وجهی) را توسعه دادند. سیستمی که انواع وظایف تفسیرپذیری شبکه عصبی را، با استفاده از ستون فقرات و (مدل زبان بینایی ) بر روی سایر سیستمهای هوش مصنوعی خودکار میکند.
دیدگاه شما