پیوند‌های مرتبط

photo_2018-12-13_12-07-26

شرکت ها و تشکل های منتخب

تغییرات در هوش مصنوعی

OpenAI می‌گوید پس از آنکه در یک شکایت، ChatGPT مقصر خودکشی یک نوجوان دانسته شد، قصد دارد تغییراتی در آن ایجاد کند

در پی شکایت خانواده‌ای که چت‌بات ChatGPT را مسئول مرگ فرزند نوجوانشان بر اثر خودکشی می‌دانند، شرکت OpenAI در حال تشریح برنامه‌های خود برای رفع نواقص این چت‌بات در مدیریت «موقعیت‌های حساس» است

شرکت OpenAI روز سه‌شنبه در یک پست وبلاگ با عنوان «کمک به مردم در زمانی که بیشترین نیاز را دارند» نوشت: «ما با راهنمایی کارشناسان و بر اساس مسئولیت‌پذیری در قبال افرادی که از ابزارهای ما استفاده می‌کنند، به بهبود ادامه خواهیم داد — و امیدواریم دیگران نیز به ما بپیوندند تا اطمینان حاصل کنیم این فناوری از مردم در آسیب‌پذیرترین حالتشان محافظت می‌کند.»

به گزارش ان‌بی‌سی نیوز، پیشتر در روز سه‌شنبه، والدین آدام رین (Adam Raine) پس از مرگ پسر ۱۶ ساله‌شان بر اثر خودکشی، شکایتی مبنی بر مسئولیت محصول و مرگ ناحق علیه OpenAI تنظیم کردند. در این شکایت، خانواده اعلام کردند که «ChatGPT فعالانه به آدام در بررسی روش‌های خودکشی کمک کرده است.»

این شرکت در پست وبلاگ خود به خانواده رین یا این شکایت اشاره‌ای نکرد.

OpenAI اعلام کرد که اگرچه ChatGPT برای راهنمایی افراد به سمت دریافت کمک در هنگام ابراز قصد خودکشی آموزش دیده است، اما این چت‌بات تمایل دارد پس از پیام‌های متعدد در یک دوره زمانی طولانی، پاسخ‌هایی ارائه دهد که با تدابیر ایمنی شرکت در تضاد است.

این شرکت گفت که همچنین در حال کار بر روی یک به‌روزرسانی برای مدل GPT-5 خود است که در اوایل این ماه منتشر شد. این به‌روزرسانی باعث می‌شود چت‌بات مکالمات را آرام (تنش‌زدایی) کند. همچنین این شرکت در حال بررسی چگونگی «ارتباط دادن افراد با درمانگران معتبر پیش از آنکه دچار بحران حاد شوند» است، که احتمالاً شامل ایجاد شبکه‌ای از متخصصان دارای مجوز می‌شود که کاربران می‌توانند مستقیماً از طریق ChatGPT به آنها دسترسی پیدا کنند.

علاوه بر این، OpenAI اعلام کرد که در حال بررسی چگونگی ارتباط کاربران با «نزدیک‌ترین افرادشان» مانند دوستان و اعضای خانواده است.

در مورد نوجوانان، OpenAI اعلام کرد که به زودی کنترل‌هایی را معرفی خواهد کرد که به والدین گزینه‌هایی برای کسب بینش بیشتر در مورد نحوه استفاده فرزندانشان از ChatGPT می‌دهد.

جی ادلسون، وکیل اصلی خانواده رین، روز سه‌شنبه به CNBC گفت که هیچ‌کس از OpenAI مستقیماً با خانواده تماس نگرفته تا تسلیت بگوید یا در مورد هرگونه تلاش برای بهبود ایمنی محصولات شرکت صحبت کند.

ادلسون گفت: «اگر قرار است از قدرتمندترین فناوری مصرفی روی کره زمین استفاده کنید، باید اعتماد داشته باشید که بنیان‌گذاران آن یک قطب‌نمای اخلاقی دارند. این سوالی است که اکنون برای OpenAI مطرح است، چگونه کسی می‌تواند به آنها اعتماد کند؟»

داستان رین یک مورد جداگانه نیست.

لورا رایلی، نویسنده، در اوایل این ماه مقاله‌ای در نیویورک تایمز منتشر کرد و به تفصیل شرح داد که چگونه دختر ۲۹ ساله‌اش پس از بحث گسترده در مورد ایده خودکشی با ChatGPT، جان خود را از دست داد. و در موردی در فلوریدا، سوال ستزر سوم (Sewell Setzer III) ۱۴ ساله، سال گذشته پس از صحبت در مورد خودکشی با یک چت‌بات هوش مصنوعی در اپلیکیشن Character.AI، خودکشی کرد.

با افزایش محبوبیت خدمات هوش مصنوعی، مجموعه‌ای از نگرانی‌ها در مورد استفاده از آنها برای درمان، همراهی و سایر نیازهای عاطفی در حال ظهور است.

اما قانون‌گذاری این صنعت نیز ممکن است چالش‌برانگیز باشد.

روز دوشنبه، ائتلافی از شرکت‌های هوش مصنوعی، سرمایه‌گذاران خطرپذیر و مدیران اجرایی، از جمله گرگ براکمن، رئیس و هم‌بنیان‌گذار OpenAI، از تشکیل «رهبری آینده» (Leading the Future) خبر دادند؛ یک عملیات سیاسی که «با سیاست‌هایی که نوآوری را در زمینه هوش مصنوعی سرکوب می‌کنند» مخالفت خواهد کرد.

در همین باره

پیشنهادها

خوانده شده ها

آخرین خبرها

مطالب مرتبط

تبلیغات

۴۹۴۵۹۷۹۰_۱۹۶۸۱۷۴۰۱۳۴۸۹۲۳۰_۲۴۳۹۸۳۴۳۰۶۵۳۷۸۴۸۸۳۲_n
Maryam-Mirzakhani