Return to site

همه چیز در مورد هوش مصنوعی به زبان ساده برای کودکان

در برخی موارد، تصور می‌شود که برخی از سیستم‌های هوش مصنوعی به زبان ساده برای کودکان اعمال تبعیض‌آمیز یا جانبدارانه را فعال کرده‌اند.40 برای مثال، Airbnb متهم شده است که صاحبان خانه‌هایی را در پلتفرم خود دارد که علیه اقلیت‌های نژادی تبعیض قائل می‌شوند. یک پروژه تحقیقاتی انجام شده توسط مدرسه بازرگانی هاروارد نشان داد که «کاربران Airbnb با نام‌های مشخص آمریکایی آفریقایی تقریباً 16 درصد کمتر از کسانی که نام‌های سفید مشخصی دارند به عنوان مهمان پذیرفته می‌شوند».

مسائل نژادی نیز با نرم افزار تشخیص چهره ارائه می شود. اکثر هوش مصنوعی به زبان ساده برای کودکان این سیستم ها با مقایسه چهره یک فرد با طیف وسیعی از چهره ها در یک پایگاه داده بزرگ عمل می کنند. همانطور که جوی بولاموینی از لیگ عدالت الگوریتمی اشاره کرد، «اگر داده‌های تشخیص چهره شما عمدتاً شامل چهره‌های قفقازی است، این همان چیزی است که برنامه شما تشخیص می‌دهد». ویژگی های آفریقایی-آمریکایی یا آسیایی-آمریکایی را بشناسید.

بسیاری از مجموعه‌های داده‌های تاریخی، مقادیر سنتی را منعکس می‌کنند، که ممکن است ترجیحات مورد نظر در یک سیستم فعلی را نشان دهد یا نباشد. همانطور که بولاموینی اشاره می کند، چنین هوش مصنوعی به زبان ساده برای کودکان رویکردی خطر تکرار نابرابری های گذشته را به همراه دارد:

ظهور اتوماسیون و افزایش اتکا به الگوریتم‌ها برای تصمیم‌گیری‌های پرمخاطره مانند اینکه آیا کسی بیمه می‌شود یا نه، احتمال عدم پرداخت وام یا خطر تکرار جرم به این معنی است که این چیزی است که باید به آن پرداخته شود. حتی تصمیمات پذیرش به طور فزاینده ای خودکار می شوند - فرزندان ما در چه مدرسه ای می روند هوش مصنوعی به زبان ساده برای کودکان و چه فرصت هایی دارند. ما مجبور نیستیم نابرابری های ساختاری گذشته را در آینده ای که ایجاد می کنیم بیاوریم

اخلاق هوش مصنوعی و شفافیت

الگوریتم ها ملاحظات اخلاقی و انتخاب های ارزشی را در تصمیم گیری های برنامه جاسازی می کنند. به این ترتیب، این سیستم ها سوالاتی را در مورد معیارهای مورد استفاده در تصمیم گیری خودکار هوش مصنوعی به زبان ساده برای کودکان مطرح می کنند. برخی از مردم می خواهند درک بهتری از نحوه عملکرد الگوریتم ها و انتخاب هایی داشته باشند

در ایالات متحده، بسیاری از مدارس شهری از الگوریتم‌هایی برای تصمیم‌گیری ثبت‌نام بر اساس ملاحظات مختلفی مانند ترجیحات والدین، کیفیت محله، سطح درآمد و پیشینه جمعیتی استفاده می‌کنند هوش مصنوعی به زبان ساده برای کودکان . به گفته جان والانت، محقق بروکینگز، آکادمی بریکلاژ مستقر در نیواورلئان «برای حداکثر 33 درصد از صندلی‌های موجود، به متقاضیانی که از نظر اقتصادی محروم هستند، اولویت می‌دهد. با این حال، در عمل، بیشتر شهرها دسته‌هایی را انتخاب کرده‌اند که خواهر و برادر دانش‌آموزان فعلی، فرزندان کارکنان مدرسه، و خانواده‌هایی که در هوش مصنوعی به زبان ساده برای کودکان منطقه جغرافیایی وسیع مدرسه زندگی می‌کنند، اولویت دارند. به بازی

بسته به نحوه راه‌اندازی سیستم‌های هوش مصنوعی، آنها می‌توانند خط قرمز درخواست‌های وام مسکن را تسهیل کنند، به افراد کمک کنند تا علیه افرادی که دوست ندارند تبعیض قائل شوند، یا به بررسی یا ساخت فهرستی از افراد بر اساس معیارهای ناعادلانه کمک کنند. انواع ملاحظاتی که در تصمیمات برنامه نویسی مطرح می شوند از هوش مصنوعی به زبان ساده برای کودکان نظر نحوه عملکرد سیستم ها و نحوه تأثیر آنها بر مشتریان بسیار مهم است.

به این دلایل، اتحادیه اروپا در ماه مه 2018 مقررات حفاظت از داده های عمومی (GDPR) را اجرا می کند. قوانین مشخص می کند که افراد «حق انصراف از تبلیغات شخصی سازی شده را دارند» و «می توانند تصمیمات «قانونی یا مشابه با اهمیت» اتخاذ شده توسط الگوریتم‌ها و درخواست برای مداخله انسانی» در قالب توضیحی درباره نحوه ایجاد یک نتیجه خاص توسط الگوریتم. هر دستورالعمل برای اطمینان از حفاظت از داده های شخصی و ارائه هوش مصنوعی به زبان ساده برای کودکان اطلاعات در مورد نحوه عملکرد "جعبه سیاه" به افراد طراحی شده است.

مسئولیت قانونی

سوالاتی در مورد مسئولیت قانونی سیستم های هوش مصنوعی وجود دارد. در صورت وجود آسیب یا تخلف (یا تلفات در مورد خودروهای بدون راننده)، اپراتورهای الگوریتم احتمالاً تحت قوانین مسئولیت محصول قرار می گیرند. مجموعه‌ای از رویه قضایی نشان داده است که حقایق و شرایط وضعیت، مسئولیت را تعیین می‌کند و بر نوع مجازات‌هایی که اعمال می‌شود، تأثیر می‌گذارد. این موارد می تواند از جریمه های مدنی تا حبس برای آسیب های عمده متغیر باشد.48 مرگ و میر مربوط به Uber در آریزونا یک مورد آزمایشی مهم برای مسئولیت قانونی خواهد بود. این ایالت به هوش مصنوعی به زبان ساده برای کودکان طور فعال اوبر را برای آزمایش وسایل نقلیه خودران خود به خدمت گرفت و به شرکت از نظر آزمایش جاده ای فرصت قابل توجهی داد. باید دید که آیا در این پرونده شکایتی صورت می گیرد و از چه کسی شکایت می شود: راننده پشتیبان انسانی، ایالت آریزونا، حومه فونیکس که در آن تصادف رخ داده است، اوبر، توسعه دهندگان نرم افزار یا سازنده خودرو. با توجه به افراد و سازمان‌های متعددی که در آزمایش جاده‌ها دخیل هستند، سؤالات حقوقی زیادی وجود دارد که باید حل شوند.

در مناطق غیرحمل‌ونقلی، پلتفرم‌های دیجیتال معمولاً مسئولیت محدودی در قبال آنچه در سایت‌هایشان اتفاق می‌افتد دارند. به عنوان مثال، در مورد Airbnb، این شرکت "باید موافقت کند که افراد از حق خود برای شکایت، یا پیوستن به هر دعوای دسته جمعی یا داوری دسته جمعی برای استفاده از این سرویس، صرف نظر کنArtificial intelligence in plain language for children ند." این شرکت با درخواست از کاربرانش برای قربانی کردن حقوق اولیه، مصرف کننده را محدود می کند