هوش مصنوعی در دسترس پایگاه گسترده كاربران
آوا مسکن: کارشناسان معتقدند هوش مصنوعی و یادگیری ماشین، در سال ۲۰۲۱ میلادی برای پایگاه گسترده تری از کاربران در دسترس خواهد بود و اگرچه زمینه های دانش داده برای بهره گیری از هوش مصنوعی تابحال ضروری بوده است، اما این روند تغییر می کند و به سمتی می رود که شامل هر کسی در سازمان که برای تصمیم گیری هوشمندتر به دسترسی به داده احتیاج دارد، شود.
به گزارش آوا مسکن به نقل از ایسنا، سال پرهیاهو و شلوغ ۲۰۲۰ خیلی از صاحبان صنایع را در مورد آینده پیش رو به فکر فرو برده است. اواخر هر سال، پیشبینی های زیادی را از سوی مدیران صنعت و تحلیل گران صنعت و تحلیل گران داده ارائه می شود که در ارتباط با سال آینده است. سال جاری، این پیشبینی ها سندی ۴۹ صفحه ای از بیشتر از ۳۰ شرکت است. مرکز ملی فضای مجازی در مقاله خود خلاصه ای از پیشبینی ها پیرامون سال ۲۰۲۱ وجود دارد که به مباحثی اختصاص یافته که بیشترین حدس ها را به خود اختصاص داده که بخشی از آن در ارتباط با هوش مصنوعی است.
امسال تعداد زیادی از پیشبینی ها در مورد هوش مصنوعی و یادگیری ماشین (ML) بوده است. در واقع پیشبینی ها در اینباره آنقدر زیاد بود که خود به چند زیر مجموعه قابل توجه تقسیم می شوند. یک مجموعه از پیشبینی ها به چگونگی دموکراتیک شدن، در دسترس بودن، مقرون به صرفه بودن و بالغ شدن هوش مصنوعی متمرکز است.
بورگمن از Starburst می گوید: هوش مصنوعی و یادگیری ماشین، برای پایگاه گسترده تری از کاربران در دسترس خواهد بود. باآنکه زمینه های دانش داده برای بهره گیری از هوش مصنوعی تابحال ضروری بوده است، اما این روند تغییر می کند و به سمتی می رود که شامل هر کسی در سازمان که برای تصمیم گیری هوشمندتر به دسترسی به داده احتیاج دارد، شود.
الکس پینا، مهندس ارشد تحقیق و توسعه در Linode، فکر می کند که اقتصاد هوش مصنوعی هم قابلیت دسترسی آنرا بهبود می بخشد و می گوید: با کاهش هزینه خدمات GPU ابری، مشاغل کوچک تر می توانند از هوش مصنوعی استفاده کنند. رایان ویلکینسون، مدیر ارشد فناوری در IntelliShift، موافق است و اظهار می کند: با رسیدن سخت افزار به نقطه ای که از هوش مصنوعی پشتیبانی کند، نرم افزارهای ML و AI که در فضای ابری اجرا می شوند سریعتر از هر زمان دیگر به بلوغ می رسند.
رایوهی فوجیماکی، بنیانگذار و مدیرعامل dotData، یادگیری ماشین خودکار (AutoML) را عامل دیگری برای دستیابی به هوش مصنوعی برای دانشمندان در حوزه های دیگر غیر از داده می داند و پیشبینی می کند: در سال ۲۰۲۱ ما شاهد افزایش AutoML 2.0 خواهیم بود که پلت فرم های "بدون کد" را به سطح بعدی می رسانند. فوجیماکی همینطور احساس می کند که AutoML به فراتر بردن موارد استفاده از تجزیه و تحلیل های پیشبینی کننده کمک خواهد کرد، چونکه همینطور می تواند بینش ارزشمندی از روندها، رویدادها و اطلاعات گذشته عرضه نماید که به کسب و کارها اجازه می دهد تا مجهولات ناشناخته، روندها و الگوهای داده ای که مهم هستند، اما هیچ کس به درست بودن آنها شک نکرده است را کشف کنند.
هوش مصنوعی مسئولیت پذیر و اخلاقی
یکی دیگر از موضوعات مهم، مبحث مسئولیت پذیری و اهمیت عمومی اعتماد و توضیح پذیری در مدلهای AI / ML است. امی هودلر، مدیر تجزیه و تحلیل نمودارها و برنامه های هوش مصنوعی در Neo4j، می گوید: باآنکه بحث در مورد هوش مصنوعی مسئولانه به سبب همه گیری متوقف شده است، اما احتیاج به هوش مصنوعی مسئولانه تغییر نکرده و احتیاج به شروع بحث عمومی مثل همیشه مهم می باشد.
روملیوتیس از اوریلی در مورد پیشرفت محدود پیشین و چگونگی فعالیتهای عمده آن در سال ۲۰۲۱ با چنین آرایشی موافق است: تا کنون، استفاده شرکتهای بزرگ از ML مسئولیت پذیر در بهترین حالت متوسط و واکنشی بوده است. در سال آینده، افزایش مقررات (مانند GDPR و CCPA)، ضدانحصاری و سایر نیروهای قانونی شرکت ها را مجبور به اتخاذ رویه های مسئولانه تر در ML خواهد نمود. نیک الپرین، مدیرعامل شرکت آزمایشگاه دومینو، از همین منظر نظراتش را بیان کرده است: استانداردهای حفظ حریم خصوصی که به سرعت در حال تحول هستند و نخستین بار با GDPR و الان CCPA در کالیفرنیا مشاهده می شوند، در سال ۲۰۲۱ احتیاج به توجه به شفافیت و امنیت بیشتر مدلهای هوش مصنوعی خواهد داشت.
بدون رویکرد هوش مصنوعی مسئولانه، اعتماد به C-Suite و اعضای تیم برای مدلهای هوش مصنوعی که در حال طراحی آن هستند دشوار می شود و بدون این اعتماد، استفاده از هوش مصنوعی برای منافع تجاری تقریباً غیر ممکن است. جوآو اولیویرا، مدیر راهکارهای تجاری در SAS، می گوید: "هرچه دید تصمیم گیرندگان برای نتایج هوش مصنوعی بیشتر باشد، اعتماد بیشتری به تصمیماتی که توسط مدلها گرفته می شود، دارند. اعتمادپذیری به سمت به کارگیری و استفاده می انجامد. نظارت انسان و توضیح مدلها در هر مرحله از یک فرایند تصمیم گیری، سبب پذیرش هوش مصنوعی و تصمیم گیری خودکار می شود.
سانتیاگو ژیرالدو، مدیر ارشد بازاریابی محصولات Cloudera در یادگیری ماشین، نه تنها موافق است، بلکه ادامه می دهد که، برای تجارت، به کارگیری هوش مصنوعی بدین سان از نظر وجودی ضروری می باشد. وی این گونه بیان می کند: در سال ۲۰۲۱، توانایی یک کسب و کار در جلب اعتماد به مدل خود - تا حدی که بتوانند بر مبنای بینش ناشی از هوش مصنوعی خود عمل کنند - تعیین کننده بقای آنها خواهد بود.
سندی مایک، معاون اصلی راهکارهای صنعتی بعنوان یکی دیگر از مدیران Cloudera می گوید: در ۱۲ تا ۲۴ ماه آینده خواهیم دید که هوش مصنوعی اخلاقی در مرکز توجه قرار می گیرد. بینا آمانات، مدیر اجرایی موسسه هوش مصنوعی Deloitte فکر می کند ۲۰۲۱ سال عملیاتی برای اخلاق هوش مصنوعی خواهد بود و می گوید: امکان اعتماد به سیستم های AI در مرکز هر مکالمه AI است. امانات احساس می کند که شرکت ها در تصمیم گیری درباره ابعاد اخلاقی استراتژی های هوش مصنوعی خود آغاز به کار می کنند و مدلهای هوش مصنوعی را که می توانند برای نتایج اخلاقی تحت عنوان MLOps اداره شوند، به کار می گیرند. در واقع، گزارش اجرایی سالانه فناوری RELX تائیدیه ای را برای این امر تأیید می کند و می گوید: از هر ۱۰ رهبر تجاری بیشتر از ۸ نفر معتقدند که ملاحظات اخلاقی یک اولویت استراتژیک در طراحی و اجرای سیستم های هوش مصنوعی آنها است.
دومینو داتا لبس الپرین، با نادیده گرفتن خطر هوش مصنوعی اخلاقی، پیشبینی می کند که در سال ۲۰۲۱، ما آگاهی گسترده تری از صنایع راجع به نتایج حقوقی و خطرات تصمیمات خودکار خواهیم دید. امکان دارد دعاوی عمومی در ارتباط با تبعیض یا مسئولیت را که شامل تصمیمات گرفته شده توسط مدلهای هوش مصنوعی است را ببینیم. اما همه پیشبینی ها به سمت نابودی و تاریکی نیست.
جیمز کینگستون، معاون همکاری و تحقیقات نوآوری، محقق هوش مصنوعی و مدیر HAT-LAB در Dataswift، مقداری هویج در انت های این چوب گذاشته و توضیح می دهد که برای مقیاس گذاری برای آینده با ترکیب اصول اخلاقی، سازگاری و حفظ حریم خصوصی با زیرساخت های فناوری ساخته شده، جامعه به سمت سیستمی حرکت خواهد نمود که ارزش داده ها به نفع افراد و بنگاه های اقتصادی باشد.
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب