در برخی موارد، تصور میشود که برخی از سیستمهای هوش مصنوعی به زبان ساده برای کودکان اعمال تبعیضآمیز یا جانبدارانه را فعال کردهاند.40 برای مثال، Airbnb متهم شده است که صاحبان خانههایی را در پلتفرم خود دارد که علیه اقلیتهای نژادی تبعیض قائل میشوند. یک پروژه تحقیقاتی انجام شده توسط مدرسه بازرگانی هاروارد نشان داد که «کاربران Airbnb با نامهای مشخص آمریکایی آفریقایی تقریباً 16 درصد کمتر از کسانی که نامهای سفید مشخصی دارند به عنوان مهمان پذیرفته میشوند».
مسائل نژادی نیز با نرم افزار تشخیص چهره ارائه می شود. اکثر هوش مصنوعی به زبان ساده برای کودکان این سیستم ها با مقایسه چهره یک فرد با طیف وسیعی از چهره ها در یک پایگاه داده بزرگ عمل می کنند. همانطور که جوی بولاموینی از لیگ عدالت الگوریتمی اشاره کرد، «اگر دادههای تشخیص چهره شما عمدتاً شامل چهرههای قفقازی است، این همان چیزی است که برنامه شما تشخیص میدهد». ویژگی های آفریقایی-آمریکایی یا آسیایی-آمریکایی را بشناسید.
بسیاری از مجموعههای دادههای تاریخی، مقادیر سنتی را منعکس میکنند، که ممکن است ترجیحات مورد نظر در یک سیستم فعلی را نشان دهد یا نباشد. همانطور که بولاموینی اشاره می کند، چنین هوش مصنوعی به زبان ساده برای کودکان رویکردی خطر تکرار نابرابری های گذشته را به همراه دارد:
ظهور اتوماسیون و افزایش اتکا به الگوریتمها برای تصمیمگیریهای پرمخاطره مانند اینکه آیا کسی بیمه میشود یا نه، احتمال عدم پرداخت وام یا خطر تکرار جرم به این معنی است که این چیزی است که باید به آن پرداخته شود. حتی تصمیمات پذیرش به طور فزاینده ای خودکار می شوند - فرزندان ما در چه مدرسه ای می روند هوش مصنوعی به زبان ساده برای کودکان و چه فرصت هایی دارند. ما مجبور نیستیم نابرابری های ساختاری گذشته را در آینده ای که ایجاد می کنیم بیاوریم
اخلاق هوش مصنوعی و شفافیت
الگوریتم ها ملاحظات اخلاقی و انتخاب های ارزشی را در تصمیم گیری های برنامه جاسازی می کنند. به این ترتیب، این سیستم ها سوالاتی را در مورد معیارهای مورد استفاده در تصمیم گیری خودکار هوش مصنوعی به زبان ساده برای کودکان مطرح می کنند. برخی از مردم می خواهند درک بهتری از نحوه عملکرد الگوریتم ها و انتخاب هایی داشته باشند
در ایالات متحده، بسیاری از مدارس شهری از الگوریتمهایی برای تصمیمگیری ثبتنام بر اساس ملاحظات مختلفی مانند ترجیحات والدین، کیفیت محله، سطح درآمد و پیشینه جمعیتی استفاده میکنند هوش مصنوعی به زبان ساده برای کودکان . به گفته جان والانت، محقق بروکینگز، آکادمی بریکلاژ مستقر در نیواورلئان «برای حداکثر 33 درصد از صندلیهای موجود، به متقاضیانی که از نظر اقتصادی محروم هستند، اولویت میدهد. با این حال، در عمل، بیشتر شهرها دستههایی را انتخاب کردهاند که خواهر و برادر دانشآموزان فعلی، فرزندان کارکنان مدرسه، و خانوادههایی که در هوش مصنوعی به زبان ساده برای کودکان منطقه جغرافیایی وسیع مدرسه زندگی میکنند، اولویت دارند. به بازی
بسته به نحوه راهاندازی سیستمهای هوش مصنوعی، آنها میتوانند خط قرمز درخواستهای وام مسکن را تسهیل کنند، به افراد کمک کنند تا علیه افرادی که دوست ندارند تبعیض قائل شوند، یا به بررسی یا ساخت فهرستی از افراد بر اساس معیارهای ناعادلانه کمک کنند. انواع ملاحظاتی که در تصمیمات برنامه نویسی مطرح می شوند از هوش مصنوعی به زبان ساده برای کودکان نظر نحوه عملکرد سیستم ها و نحوه تأثیر آنها بر مشتریان بسیار مهم است.
به این دلایل، اتحادیه اروپا در ماه مه 2018 مقررات حفاظت از داده های عمومی (GDPR) را اجرا می کند. قوانین مشخص می کند که افراد «حق انصراف از تبلیغات شخصی سازی شده را دارند» و «می توانند تصمیمات «قانونی یا مشابه با اهمیت» اتخاذ شده توسط الگوریتمها و درخواست برای مداخله انسانی» در قالب توضیحی درباره نحوه ایجاد یک نتیجه خاص توسط الگوریتم. هر دستورالعمل برای اطمینان از حفاظت از داده های شخصی و ارائه هوش مصنوعی به زبان ساده برای کودکان اطلاعات در مورد نحوه عملکرد "جعبه سیاه" به افراد طراحی شده است.
مسئولیت قانونی
سوالاتی در مورد مسئولیت قانونی سیستم های هوش مصنوعی وجود دارد. در صورت وجود آسیب یا تخلف (یا تلفات در مورد خودروهای بدون راننده)، اپراتورهای الگوریتم احتمالاً تحت قوانین مسئولیت محصول قرار می گیرند. مجموعهای از رویه قضایی نشان داده است که حقایق و شرایط وضعیت، مسئولیت را تعیین میکند و بر نوع مجازاتهایی که اعمال میشود، تأثیر میگذارد. این موارد می تواند از جریمه های مدنی تا حبس برای آسیب های عمده متغیر باشد.48 مرگ و میر مربوط به Uber در آریزونا یک مورد آزمایشی مهم برای مسئولیت قانونی خواهد بود. این ایالت به هوش مصنوعی به زبان ساده برای کودکان طور فعال اوبر را برای آزمایش وسایل نقلیه خودران خود به خدمت گرفت و به شرکت از نظر آزمایش جاده ای فرصت قابل توجهی داد. باید دید که آیا در این پرونده شکایتی صورت می گیرد و از چه کسی شکایت می شود: راننده پشتیبان انسانی، ایالت آریزونا، حومه فونیکس که در آن تصادف رخ داده است، اوبر، توسعه دهندگان نرم افزار یا سازنده خودرو. با توجه به افراد و سازمانهای متعددی که در آزمایش جادهها دخیل هستند، سؤالات حقوقی زیادی وجود دارد که باید حل شوند.
در مناطق غیرحملونقلی، پلتفرمهای دیجیتال معمولاً مسئولیت محدودی در قبال آنچه در سایتهایشان اتفاق میافتد دارند. به عنوان مثال، در مورد Airbnb، این شرکت "باید موافقت کند که افراد از حق خود برای شکایت، یا پیوستن به هر دعوای دسته جمعی یا داوری دسته جمعی برای استفاده از این سرویس، صرف نظر کنArtificial intelligence in plain language for children ند." این شرکت با درخواست از کاربرانش برای قربانی کردن حقوق اولیه، مصرف کننده را محدود می کند