
کتاب اخلاق هوش مصنوعی
معرفی کتاب اخلاق هوش مصنوعی
کتاب الکترونیکی اخلاق هوش مصنوعی نوشتهٔ مارک کوکلبرگ با ترجمهٔ احسان عارفیفر در گروه انتشاراتی ققنوس چاپ شده است. این کتاب به بررسی چالشهای اخلاقی و اجتماعی مرتبط با توسعه و استفاده از هوش مصنوعی میپردازد.
درباره کتاب اخلاق هوش مصنوعی
مارک کوکلبرگ، فیلسوف و اخلاقدان بلژیکی، استاد فلسفهٔ رسانه و فناوری در دانشگاه وین است. او در این کتاب، با نگاهی جامع، تأثیرات هوش مصنوعی بر ارزشهای انسانی، هویت، مسئولیتپذیری و ساختارهای اجتماعی را مورد بررسی قرار میدهد. کوکلبرگ با تأکید بر ضرورت یک رویکرد جامع و منعطف، بیان میکند که بازتاب اخلاقی باید همواره بخشی جداییناپذیر از فرآیند توسعهٔ هوش مصنوعی باشد و این فناوری باید در راستای منافع مشترک بشری هدایت شود.
در یادداشت نویسنده برای خوانندگان ایرانی، کوکلبرگ به تغییرات سریع در دنیای هوش مصنوعی از زمان انتشار کتاب در سال ۲۰۲۰ اشاره میکند. او به ظهور هوش مصنوعی مولد که قادر به تولید محتوا و تصویر است، پرداخته و اهمیت بحثهای اخلاقی پیرامون آن را برجسته میسازد. همچنین، او به تلاشهای بینالمللی برای سیاستگذاری در زمینهٔ هوش مصنوعی و ضرورت در نظر گرفتن بافتهای فرهنگی و تاریخی مختلف در این سیاستها اشاره میکند.
مارک کوکلبرگ (متولد ۱۹۷۵) فیلسوف فناوری بلژیکی است. او استاد فلسفهٔ رسانه و فناوری در دانشگاه وین و رئیس سابق انجمن فلسفه و فناوری است. کوکلبرگ نویسندهٔ چندین کتاب در زمینهٔ فلسفهٔ فناوری، از جمله روابط اخلاقی رو به رشد (۲۰۱۲)، انسان در خطر (۲۰۱۳) و مهارتهای زیستمحیطی (۲۰۱۵) است.
کتاب اخلاق هوش مصنوعی را به چه کسانی پیشنهاد میکنیم
این کتاب برای پژوهشگران، دانشجویان و علاقهمندان به حوزهٔ هوش مصنوعی، فلسفهٔ فناوری و مطالعات اجتماعی مناسب است.
بخشی از کتاب اخلاق هوش مصنوعی
«آیا ضروری است که خودروهای خودران قیود اخلاقی درونی داشته باشند؟ و اگر پاسخ مثبت است، چه نوع قیودی باید داشته باشند، و آن قیود چگونه باید مشخص شوند؟ مثلاً موقعیتی را در نظر بگیرید که خودرویِ خودرانی یا باید کودکی را زیر بگیرد، یا به سمت دیواری براند تا جان کودک حفظ شود، ولی با این کار سرنشینانش در معرض مرگ قرار میگیرند. خودرو کدام را باید انتخاب کند؟ آیا واقعاً وجود سلاحهای مرگبار خودکار باید مجاز باشد؟ چه تعداد و چه گسترهای از چنین تصمیمگیریهایی را میخواهیم به هوش مصنوعی تفویض کنیم؟ و در مواقعی که مشکلی پیش میآید، چه کسی پاسخگو خواهد بود؟ در یک پرونده، قضات به نتایج الگوریتم کُمپاس اعتماد بیشتری داشتند تا مستنداتی که از دفاعیات و پیگیریهای قضایی به دست آمده بود. آیا با گذشت زمان ما بیش از اندازه به هوش مصنوعی متکی خواهیم بود؟ الگوریتم کُمپاس به این دلیل هم بهشدت مناقشهبرانگیز است که تحقیقات نشان داده است مصادیق نتایج مثبت کاذبِ الگوریتم (افرادی که الگوریتمْ ارتکاب مجدد جرم از سوی آنها را پیشبینی کرده بود، ولی جرمی مرتکب نشدند) به طور نامتناسبی سیاهپوست بودند (Fry ۲۰۱۸). بنابراین، ممکن است هوش مصنوعی سوگیری و تبعیض ناعادلانه را تشدید کند. در الگوریتمهایی که در فرایندهای تصمیمگیری دربارۀ درخواست تسهیلات مالی و درخواست استخدام کاری به کار میروند ممکن است مشکلات مشابهی رخ دهد. به عنوان مثالی دیگر, کنترل پیشگیرانه را در نظر بگیرید: از الگوریتمها برای پیشبینی محدودههای وقوع جرم (مثلاً، کدام محلههای یک شهر) و افرادی که احتمال دارد آن جرمها را مرتکب شوند استفاده میکنند, اما خروجی این الگوریتمها ممکن است گروههای اجتماعیـ اقتصادی یا نژادی خاصی را شامل شود که بهخطا تحت نظارت پلیس قرار بگیرند.»
حجم
۲۱۷٫۱ کیلوبایت
سال انتشار
۱۴۰۳
تعداد صفحهها
۲۲۴ صفحه
حجم
۲۱۷٫۱ کیلوبایت
سال انتشار
۱۴۰۳
تعداد صفحهها
۲۲۴ صفحه