• هوش مصنوعی مسئول در شرکت‌ها

      هوش مصنوعی مسئول در شرکت‌ها

      هوش مصنوعی مسئول در شرکت‌ها

      هوش مصنوعی فرصت‌های بی سابقه ای را برای کسب وکارها به ارمغان آورده است، اما مسئولیت های باورنکردنی را نیز با خود به همراه دارد. تأثیر مستقیم هوش مصنوعی بر زندگی مردم...‌‍

      مقدمه
      هوش مصنوعی فرصتهای بیسابقهای را برای کسبوکارها به ارمغان آورده است، اما مسئولیتهای باورنکردنی را نیز با خود به همراه دارد. تأثیر مستقیم هوش مصنوعی بر زندگی مردم، سؤالات قابلتوجهی را در مورد اخلاق هوش مصنوعی، حاکمیت داده، اعتماد و قانونمندی ایجاد کرده است. تحقیقات Tech vision 2022 نشان داد که تنها 35 درصد از مصرفکنندگان جهانی هوش مصنوعی، به نحوه اجرای آن بهوسیله سازمانها اعتماد دارند و حدود 77 درصد مردم فکر میکنند که سازمانها باید در مورد سوءاستفاده از هوش مصنوعی پاسخگو باشند. ازآنجاکه سازمانها برای کسب مزایای تجاری بیشتر، شروع به افزایش استفاده از هوش مصنوعی کردهاند، باید به مقررات جدید و اقداماتی که باید برای اطمینان از سازگاری سازمانهایشان مدنظر قرار دهند، توجه بیشتری داشته باشند. اینجاست که هوش مصنوعی مسئول وارد میشود.
      هوش مصنوعی مسئول
      هوش مصنوعی مسئول، یک چارچوب حاکمیتی است که نحوه برخورد یک سازمان خاص با چالشهای اخلاقی و قانونی هوش مصنوعی را مستند میکند. رفع ابهام در خصوص این مورد که اگر مشکلی پیش بیاید، مسئولیت آن با چه کسی است، از محرکهای اصلی شکلگیری هوش مصنوعی مسئول است.
      استفاده از کلمه "مسئول" بهطور جامع هم اخلاق و هم دموکراسی را در بر میگیرد. اکنون که برنامههای نرمافزاری با ویژگیهای هوش مصنوعی رایجتر شدهاند، بهطور فزایندهای نیاز به وجود استانداردهایی فراتر از استانداردهایی که ایزاک آسیموف در "سه قانون روباتیک" خود ارائه کرده است، احساس میشود. این فناوری ممکن است به دلایلی به صورت تصادفی یا تعمداً مورد سوءاستفاده قرار گیرد و بسیاری از سوءاستفادهها ناشی از سوگیری در انتخاب دادهها برای آموزش برنامه هوش مصنوعی است.
      مزایای هوش مصنوعی مسئول
      با استفاده از هوش مصنوعی مسئول، میتوان اهداف کلیدی را شکل داده و استراتژی حاکمیتی معینی ایجاد کرد. همچنین میتوان به ایجاد سیستمهایی که هوش مصنوعی و کسبوکار افراد را شکوفا میکنند، کمک کرد.
      Appen: 93 درصد بر این باورند که هوش مصنوعی مسئول، پایه و اساس همه پروژهها است
      شرکت Appen یک شرکت داده سهامی عام است که دادههای مورداستفاده برای توسعه یادگیری ماشین و محصولات هوش مصنوعی را فراهم کرده یا بهبود میبخشد. این شرکت، در آخرین گزارش سالانه وضعیت هوش مصنوعی و یادگیری ماشین خود، این شرکت، Appen یافتههای جالبی را در مورد پیگیری راهحلهای ایمن و اخلاقی ارائه کرده است.
      مارک برایان[1]، مدیرعامل Appen میگوید:" گزارش وضعیت هوش مصنوعی امسال نشان میدهد که 93 درصد از پاسخدهندگان معتقدند که هوش مصنوعیِ مسئول، پایه و اساس همه پروژههای هوش مصنوعی است.
      مشکل اینجاست که بسیاری از افراد در تلاش برای ساخت هوش مصنوعی متعالی، با چالشهایی در استفاده از مجموعه دادههای ضعیف مواجه هستند و این مانع بزرگی برای رسیدن به اهداف آنها ایجاد میکند."
      51 درصد از پاسخدهندگان با این امر موافق هستند که دقت دادهها در استفاده از آنها برای هوش مصنوعی، بسیار مهم است. بااینحال، 42 درصد از فناوران، مرحله منبعیابی داده در چرخه حیات هوش مصنوعی را بسیار چالشبرانگیز گزارش کردهاند.
      Sujatha Sagiraju، مدیر ارشد تولید در شرکت Appen میگوید:" اکثر تلاشهای هوش مصنوعی در چرخه عمر هوش مصنوعی، صرف مدیریت دادهها میشود، به این معنی که این تعهدی باورنکردنی برای هوش مصنوعی است و باید تمرکزمان را بر این بگذاریم که بهخوبی آن را مدیریت کنیم، چراکه بسیاری از افراد با آن دستوپنجه نرم میکنند".
      او در ادامه بیان میکند "وجود منبع دادههای با کیفیت بالا برای موفقیت راهحلهای هوش مصنوعی بسیار مهم است و ما نیز شاهد تأکید سازمانها بر اهمیت دقت دادهها هستیم."
      تقریباً همه 95 درصد از پاسخدهندگان موافق هستند که دادههای مصنوعی کلید ایجاد مجموعه دادههای فراگیر است.
      سازمانها گزارش دادهاند که مدلهایشان باید مرتباً بازآموزی شوند. 90 درصد از پاسخدهندگان میگویند نیاز دارند که مدلهای خود را بیش از سه ماه یکبار آموزش دهند.
      در نهایت، رهبران کسبوکارها مطمئن نیستند که آیا سازمانشان در مقایسه با دیگر رقبای صنعت خودشان، رویکرد هوش مصنوعی اتخاذ نمودهاست یا خیر. 49 درصد معتقدند که از رقبا جلوتر هستند، درحالیکه 49 درصد مطمئن نیستند که از رویکردهای هوش مصنوعی مسئول استفاده میکنند یا خیر.
      نمونه شرکتهایی که از هوش مصنوعی مسئول استقبال میکنند
      مایکروسافت چارچوب حاکمیت هوش مصنوعی مسئول خود را با کمک کمیته هوش مصنوعی، اخلاقیات و تأثیرات در مهندسی و تحقیقات (AETHER) و گروههای [2]ORA ایجاد کرده است. این دو گروه در داخل مایکروسافت برای گسترش و حفظ ارزشهای هوش مصنوعی مسئول تعریفشده خود، با یکدیگر همکاری میکنند. ORA بهطور خاص، مسئول تنظیم قوانین هوش مصنوعی مسئول در سطح شرکت از طریق اجرای امور حاکمیتی و سیاست عمومی است. مایکروسافت تعدادی از دستورالعملها، چکلیستها و الگوهای هوش مصنوعی را پیادهسازی کرده است. برخی از این موارد عبارتاند از:
      • دستورالعملهای تعامل انسان و هوش مصنوعی
      • دستورالعملهای هوش مصنوعی محاورهای
      • دستورالعملهای طراحی فراگیر
      • چکلیستهای عدالت هوش مصنوعی
      • قالبهای برگههای داده (Data Sheet)
      • راهنمای مهندسی امنیت هوش مصنوعی
      FICO خطمشیهای هوش مصنوعی مسئولانه خود را طوری طراحی کرده است تا به کارکنان و مشتریان خود در درک نحوه مدلهای یادگیری ماشینی که استفاده کرده است، نحوه عملکرد آنها و همچنین محدودیتهای پیش روی برنامهنویسی کمک کند. FICO وظیفه دارد علاوه بر در نظر گرفتن چرخه عمر مدلهای یادگیری ماشین، دائماً کارایی و عادلانه بودن آنها را آزمایش کند.
      IBM نیز هیئت اخلاقی خود را در رابطه با مسائل پیرامون هوش مصنوعی تشکیل داده است. این هیئت، یک نهاد مرکزی است که از ایجاد هوش مصنوعی اخلاقی و مسئولانه در سراسر IBM پشتیبانی میکند. برخی از دستورالعملهایی که IBM بر آن متمرکز است عبارتاند از:
      • اعتماد و شفافیت هوش مصنوعی
      • اخلاق روزمره برای هوش مصنوعی
      • منابع جوامع منبع باز
      • تحقیق در مورد هوش مصنوعی قابلاعتماد
      نشاندادن اینکه آیا یک مدل الگوریتمی از منظر مسئولیتپذیری خوب عمل میکند یا خیر، میتواند امری دشوار باشد. امروزه سازمانها راههای زیادی برای پیادهسازی هوش مصنوعی مسئول دارند که این امر نشان میدهد به سمت حذف مدلهای هوش مصنوعی جعبه سیاه، تمایل دارند. استراتژی کلی در رابطه با هوش مصنوعی مسئول شامل موارد زیر است:
      • اطمینان از اینکه دادهها بهگونهای قابل توضیح هستند که انسان قادر به تفسیر آنها است.
      • اطمینان از اینکه فرآیندهای طراحی و تصمیمگیری تا جایی مستند شدهاند که اگر اشتباهی رخ دهد، میتوان با مهندسی معکوس مشخص کرد که چه اتفاقی افتاده است.
      • ایجاد فرهنگ کاری متنوع و بحثهای سازنده برای کمک به کاهش تعصب.
      • ایجاد دادههای قابلدرک برای انسان با استفاده از ویژگیهای پنهان قابل تفسیر برای انسان.
      • ایجاد فرآیند توسعه دقیق که در ویژگیهای پنهان هر برنامه، قابلیت مشاهده را ارزشگذاری کند.

      برگرفته از:
      پیوند1
      پیوند2
      پیوند3
      فاطمه صالحنیا (دانشجوی ارشد هوش مصنوعی دانشگاه مالک اشتر)
      گروه مطالعات اخلاقی پژوهشگاه فضای مجازی



      [1] Mark Brayan
      [2] Office of Responsible AI
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir