مقدمه
هوش مصنوعی فرصت
های بی
سابقه
ای را برای کسب
وکارها به ارمغان آورده است، اما مسئولیت
های باورنکردنی را نیز با خود به همراه دارد. تأثیر مستقیم هوش مصنوعی بر زندگی مردم، سؤالات قابل
توجهی را در مورد اخلاق هوش مصنوعی، حاکمیت داده، اعتماد و قانونمندی ایجاد کرده است. تحقیقات
Tech vision 2022 نشان داد که تنها 35 درصد از مصرف
کنندگان جهانی هوش مصنوعی، به نحوه اجرای آن به
وسیله سازمان
ها اعتماد دارند و حدود 77 درصد مردم فکر می
کنند که سازمان
ها باید در مورد سوءاستفاده از هوش مصنوعی پاسخ
گو باشند. ازآنجاکه سازمان
ها برای کسب مزایای تجاری بیشتر، شروع به افزایش استفاده از هوش مصنوعی کرده
اند، باید به مقررات جدید و اقداماتی که باید برای اطمینان از سازگاری سازمان
هایشان مدنظر قرار دهند، توجه بیشتری داشته باشند. اینجاست که هوش مصنوعی مسئول وارد می
شود.
هوش مصنوعی مسئول
هوش مصنوعی مسئول، یک چارچوب حاکمیتی است که نحوه برخورد یک سازمان خاص با چالش
های اخلاقی و قانونی هوش مصنوعی را مستند می
کند. رفع ابهام در خصوص این مورد که اگر مشکلی پیش بیاید، مسئولیت آن با چه کسی است، از محرک
های اصلی شکل
گیری هوش مصنوعی مسئول است.
استفاده از کلمه "مسئول" به
طور جامع هم اخلاق و هم دموکراسی را در بر می
گیرد. اکنون که برنامه
های نرم
افزاری با ویژگی
های هوش مصنوعی رایج
تر شده
اند، به
طور فزاینده
ای نیاز به وجود استانداردهایی فراتر از استانداردهایی که ایزاک آسیموف در "سه قانون روباتیک" خود ارائه کرده است، احساس می
شود. این فناوری ممکن است به دلایلی به صورت تصادفی یا تعمداً مورد سوءاستفاده قرار گیرد و بسیاری از سوءاستفاده
ها ناشی از سوگیری در انتخاب داده
ها برای آموزش برنامه هوش مصنوعی است.
مزایای هوش مصنوعی مسئول
با استفاده از هوش مصنوعی مسئول، می
توان اهداف کلیدی را شکل داده و استراتژی حاکمیتی معینی ایجاد کرد. همچنین می
توان به ایجاد سیستم
هایی که هوش مصنوعی و کسب
وکار افراد را شکوفا می
کنند، کمک کرد.
Appen: 93 درصد بر این باورند که هوش مصنوعی مسئول، پایه و اساس همه پروژهها است
شرکت
Appen یک شرکت داده سهامی عام است که داده
های مورداستفاده برای توسعه یادگیری ماشین و محصولات هوش مصنوعی را فراهم کرده یا بهبود می
بخشد. این شرکت، در آخرین گزارش سالانه وضعیت هوش مصنوعی و یادگیری ماشین خود، این شرکت،
Appen یافته
های جالبی را در مورد پیگیری راه
حل
های ایمن و اخلاقی ارائه کرده است.
مارک برایان
[1]، مدیرعامل
Appen می
گوید:" گزارش وضعیت هوش مصنوعی امسال نشان می
دهد که 93 درصد از پاسخ
دهندگان معتقدند که هوش مصنوعیِ مسئول، پایه و اساس همه پروژه
های هوش مصنوعی است.
مشکل اینجاست که بسیاری از افراد در تلاش برای ساخت هوش مصنوعی متعالی، با چالش
هایی در استفاده از مجموعه داده
های ضعیف مواجه هستند و این مانع بزرگی برای رسیدن به اهداف آن
ها ایجاد می
کند."
51 درصد از پاسخ
دهندگان با این امر موافق هستند که دقت داده
ها در استفاده از آن
ها برای هوش مصنوعی، بسیار مهم است. بااین
حال، 42 درصد از فناوران، مرحله منبع
یابی داده در چرخه حیات هوش مصنوعی را بسیار چالش
برانگیز گزارش کرده
اند.
Sujatha Sagiraju، مدیر ارشد تولید در شرکت
Appen می
گوید:" اکثر تلاش
های هوش مصنوعی در چرخه عمر هوش مصنوعی، صرف مدیریت داده
ها می
شود، به این معنی که این تعهدی باورنکردنی برای هوش مصنوعی است و باید تمرکزمان را بر این بگذاریم که به
خوبی آن را مدیریت کنیم، چراکه بسیاری از افراد با آن دست
وپنجه نرم می
کنند".
او در ادامه بیان می
کند "وجود منبع داده
های با کیفیت بالا برای موفقیت راه
حل
های هوش مصنوعی بسیار مهم است و ما نیز شاهد تأکید سازمان
ها بر اهمیت دقت داده
ها هستیم."
تقریباً همه 95 درصد از پاسخ
دهندگان موافق هستند که داده
های مصنوعی کلید ایجاد مجموعه داده
های فراگیر است.
سازمان
ها گزارش داده
اند که مدل
هایشان باید مرتباً بازآموزی شوند. 90 درصد از پاسخ
دهندگان می
گویند نیاز دارند که مدل
های خود را بیش از سه ماه یک
بار آموزش دهند.
در نهایت، رهبران کسب
وکارها مطمئن نیستند که آیا سازمانشان در مقایسه با دیگر رقبای صنعت خودشان، رویکرد هوش مصنوعی اتخاذ نموده
است یا خیر. 49 درصد معتقدند که از رقبا جلوتر هستند، درحالی
که 49 درصد مطمئن نیستند که از رویکردهای هوش مصنوعی مسئول استفاده می
کنند یا خیر.
نمونه شرکتهایی که از هوش مصنوعی مسئول استقبال میکنند
مایکروسافت چارچوب حاکمیت هوش مصنوعی مسئول خود را با کمک کمیته هوش مصنوعی، اخلاقیات و تأثیرات در مهندسی و تحقیقات (
AETHER) و گروه
های
[2]ORA ایجاد کرده است. این دو گروه در داخل مایکروسافت برای گسترش و حفظ ارزش
های هوش مصنوعی مسئول تعریف
شده خود، با یکدیگر همکاری می
کنند.
ORA به
طور خاص، مسئول تنظیم قوانین هوش مصنوعی مسئول در سطح شرکت از طریق اجرای امور حاکمیتی و سیاست عمومی است. مایکروسافت تعدادی از دستورالعمل
ها، چک
لیست
ها و الگوهای هوش مصنوعی را پیاده
سازی کرده است. برخی از این موارد عبارت
اند از:
- دستورالعملهای تعامل انسان و هوش مصنوعی
- دستورالعملهای هوش مصنوعی محاورهای
- دستورالعملهای طراحی فراگیر
- چکلیستهای عدالت هوش مصنوعی
- قالبهای برگههای داده (Data Sheet)
- راهنمای مهندسی امنیت هوش مصنوعی
FICO خط
مشی
های هوش مصنوعی مسئولانه خود را طوری طراحی کرده است تا به کارکنان و مشتریان خود در درک نحوه مدل
های یادگیری ماشینی که استفاده کرده است، نحوه عملکرد آن
ها و همچنین محدودیت
های پیش روی برنامه
نویسی کمک کند.
FICO وظیفه دارد علاوه بر در نظر گرفتن چرخه عمر مدل
های یادگیری ماشین، دائماً کارایی و عادلانه بودن آن
ها را آزمایش کند.
IBM نیز هیئت اخلاقی خود را در رابطه با مسائل پیرامون هوش مصنوعی تشکیل داده است. این هیئت، یک نهاد مرکزی است که از ایجاد هوش مصنوعی اخلاقی و مسئولانه در سراسر
IBM پشتیبانی می
کند. برخی از دستورالعمل
هایی که
IBM بر آن متمرکز است عبارت
اند از:
- اعتماد و شفافیت هوش مصنوعی
- اخلاق روزمره برای هوش مصنوعی
- منابع جوامع منبع باز
- تحقیق در مورد هوش مصنوعی قابلاعتماد
نشان
دادن اینکه آیا یک مدل الگوریتمی از منظر مسئولیت
پذیری خوب عمل می
کند یا خیر، می
تواند امری دشوار باشد. امروزه سازمان
ها راه
های زیادی برای پیاده
سازی هوش مصنوعی مسئول دارند که این امر نشان می
دهد به سمت حذف مدل
های هوش مصنوعی جعبه سیاه، تمایل دارند. استراتژی کلی در رابطه با هوش مصنوعی مسئول شامل موارد زیر است:
- اطمینان از اینکه دادهها بهگونهای قابل توضیح هستند که انسان قادر به تفسیر آنها است.
- اطمینان از اینکه فرآیندهای طراحی و تصمیمگیری تا جایی مستند شدهاند که اگر اشتباهی رخ دهد، میتوان با مهندسی معکوس مشخص کرد که چه اتفاقی افتاده است.
- ایجاد فرهنگ کاری متنوع و بحثهای سازنده برای کمک به کاهش تعصب.
- ایجاد دادههای قابلدرک برای انسان با استفاده از ویژگیهای پنهان قابل تفسیر برای انسان.
- ایجاد فرآیند توسعه دقیق که در ویژگیهای پنهان هر برنامه، قابلیت مشاهده را ارزشگذاری کند.
برگرفته از:
پیوند1
پیوند2
پیوند3
فاطمه صالحنیا (دانشجوی ارشد هوش مصنوعی دانشگاه مالک اشتر)
گروه مطالعات اخلاقی پژوهشگاه فضای مجازی
[2] Office of Responsible AI