✍ساتیا نادلا هشدار می‌دهد که نرم افزارهای هوشمند آینده ممکن است قادر به تبعیض باشند

✍ساتیا نادلا هشدار می دهد که نرم افزارهای هوشمند آینده ممکن است قادر به تبعیض باشند

در روزهای اخیر آقای ساتیا نادلا در صحبتی که با مجله اینترنتی Slate داشته است در رابطه با نرم افزارهای هوشمند آینده ابراز نگرانی کرده است، آقای ساتیا نادلا در این مصاحبه به شرکت‌های صنعت کامپیوتری توصیه کرد که به فکر تولید هوش مصنوعی باشید که به رفتارهای انسانی احترام بگذارد و تبعیض ایجاد نکند.

به گزارش خانه هوش مصنوعی ، ساتیا نادلا خواستار الگوریتمی در هوش مصنوعی است که بتوان نواقص و ضررهای آن را خنثی کرد، او در ادامه گفت که باید نرم افزارهای هوشمند آینده را بازبینی و اصلاح کرد تا مانع از تبعیض آن‌ها در رابطه با برخی اشخاص و استفاده غیر قانونی از اطلاعات خصوصی شویم. تمامی این نگرانی‌ها کاملاً منطقی و به جا هستند و پیش از این نیز بزرگان فعال در حوزه فناوری نیز در رابطه با ان صحبت کرده بودند، اما طبق شواهد الگوریتم‌ها و نرم افزارهای موجود با تعصبات نگران کننده‌ای در حال شکل دهی به زندگی روزمره ما هستند.

در پایان ساتیا نادلا گفت که مهم‌ترین گام بعدی ما در این حوزه ایجاد یک چارچوب اخلاقی و همدلانه برای طراحی آن است.

خانه هوش مصنوعی (@HomeAI)