پیوندهای مرتبط
شرکت ها و تشکل های منتخب
OpenAI میگوید پس از آنکه در یک شکایت، ChatGPT مقصر خودکشی یک نوجوان دانسته شد، قصد دارد تغییراتی در آن ایجاد کند
در پی شکایت خانوادهای که چتبات ChatGPT را مسئول مرگ فرزند نوجوانشان بر اثر خودکشی میدانند، شرکت OpenAI در حال تشریح برنامههای خود برای رفع نواقص این چتبات در مدیریت «موقعیتهای حساس» است
شرکت OpenAI روز سهشنبه در یک پست وبلاگ با عنوان «کمک به مردم در زمانی که بیشترین نیاز را دارند» نوشت: «ما با راهنمایی کارشناسان و بر اساس مسئولیتپذیری در قبال افرادی که از ابزارهای ما استفاده میکنند، به بهبود ادامه خواهیم داد — و امیدواریم دیگران نیز به ما بپیوندند تا اطمینان حاصل کنیم این فناوری از مردم در آسیبپذیرترین حالتشان محافظت میکند.»
به گزارش انبیسی نیوز، پیشتر در روز سهشنبه، والدین آدام رین (Adam Raine) پس از مرگ پسر ۱۶ سالهشان بر اثر خودکشی، شکایتی مبنی بر مسئولیت محصول و مرگ ناحق علیه OpenAI تنظیم کردند. در این شکایت، خانواده اعلام کردند که «ChatGPT فعالانه به آدام در بررسی روشهای خودکشی کمک کرده است.»
این شرکت در پست وبلاگ خود به خانواده رین یا این شکایت اشارهای نکرد.
OpenAI اعلام کرد که اگرچه ChatGPT برای راهنمایی افراد به سمت دریافت کمک در هنگام ابراز قصد خودکشی آموزش دیده است، اما این چتبات تمایل دارد پس از پیامهای متعدد در یک دوره زمانی طولانی، پاسخهایی ارائه دهد که با تدابیر ایمنی شرکت در تضاد است.
این شرکت گفت که همچنین در حال کار بر روی یک بهروزرسانی برای مدل GPT-5 خود است که در اوایل این ماه منتشر شد. این بهروزرسانی باعث میشود چتبات مکالمات را آرام (تنشزدایی) کند. همچنین این شرکت در حال بررسی چگونگی «ارتباط دادن افراد با درمانگران معتبر پیش از آنکه دچار بحران حاد شوند» است، که احتمالاً شامل ایجاد شبکهای از متخصصان دارای مجوز میشود که کاربران میتوانند مستقیماً از طریق ChatGPT به آنها دسترسی پیدا کنند.
علاوه بر این، OpenAI اعلام کرد که در حال بررسی چگونگی ارتباط کاربران با «نزدیکترین افرادشان» مانند دوستان و اعضای خانواده است.
در مورد نوجوانان، OpenAI اعلام کرد که به زودی کنترلهایی را معرفی خواهد کرد که به والدین گزینههایی برای کسب بینش بیشتر در مورد نحوه استفاده فرزندانشان از ChatGPT میدهد.
جی ادلسون، وکیل اصلی خانواده رین، روز سهشنبه به CNBC گفت که هیچکس از OpenAI مستقیماً با خانواده تماس نگرفته تا تسلیت بگوید یا در مورد هرگونه تلاش برای بهبود ایمنی محصولات شرکت صحبت کند.
ادلسون گفت: «اگر قرار است از قدرتمندترین فناوری مصرفی روی کره زمین استفاده کنید، باید اعتماد داشته باشید که بنیانگذاران آن یک قطبنمای اخلاقی دارند. این سوالی است که اکنون برای OpenAI مطرح است، چگونه کسی میتواند به آنها اعتماد کند؟»
داستان رین یک مورد جداگانه نیست.
لورا رایلی، نویسنده، در اوایل این ماه مقالهای در نیویورک تایمز منتشر کرد و به تفصیل شرح داد که چگونه دختر ۲۹ سالهاش پس از بحث گسترده در مورد ایده خودکشی با ChatGPT، جان خود را از دست داد. و در موردی در فلوریدا، سوال ستزر سوم (Sewell Setzer III) ۱۴ ساله، سال گذشته پس از صحبت در مورد خودکشی با یک چتبات هوش مصنوعی در اپلیکیشن Character.AI، خودکشی کرد.
با افزایش محبوبیت خدمات هوش مصنوعی، مجموعهای از نگرانیها در مورد استفاده از آنها برای درمان، همراهی و سایر نیازهای عاطفی در حال ظهور است.
اما قانونگذاری این صنعت نیز ممکن است چالشبرانگیز باشد.
روز دوشنبه، ائتلافی از شرکتهای هوش مصنوعی، سرمایهگذاران خطرپذیر و مدیران اجرایی، از جمله گرگ براکمن، رئیس و همبنیانگذار OpenAI، از تشکیل «رهبری آینده» (Leading the Future) خبر دادند؛ یک عملیات سیاسی که «با سیاستهایی که نوآوری را در زمینه هوش مصنوعی سرکوب میکنند» مخالفت خواهد کرد.