ش. نوامبر 22nd, 2025

pmcm

پایگاه مرکزخبر کامپیوتر و موبایل

چت بات های همدم در امریکا دقیق‌تر زیر ذره‌بین می‌رود

1 دقیقه خوانده شده

قانونی در ایالت کالیفرنیا که قرار است استفاده از ربات‌های چت همدم مبتنی بر هوش مصنوعی را تنظیم کند، در آستانه تصویب قرار دارد. در صورت امضای گورنر Gavin Newsom، این قانون که با عنوان SB 243 شناخته می‌شود، از اول ژانویهٔ ۲۰۲۶ به اجرا درخواهد آمد و کالیفرنیا را به نخستین ایالتی تبدیل می‌کند که الزامات قانونی برای چت‌بات‌های همراه و دوست‌گونه هوش مصنوعی وضع می‌کند.
به گزارش بخش حقوقی رسانه اخبار تکنولوژی تکنا، این قانون شرکت‌های ارائه‌دهنده این ربات‌ها را موظف می‌کند تا پروتکل‌های ایمنی مشخصی را پیاده کنند و در صورتی که چت‌بات‌ها نتوانند آن استانداردها را برآورده کنند، مسئولیت قانونی داشته باشند.
هدف اصلی این قانون، جلوگیری از همچنانگی گفتگوهایی با چت‌بات‌های همدم در زمینه‌های تفکرات خودکشی، آسیب به خود یا محتوای جنسی آشکار است. طبق تعریف قانون، چت‌بات همدم به سامانه هوش مصنوعی زبانی گفته می‌شود که پاسخ‌های انسانی و تطبیقی ارائه می‌دهد و می‌تواند در طول زمان رابطه‌ای با کاربر شکل دهد، به‌ویژه برای تأمین نیازهای اجتماعی او.
یکی از الزام‌های مهم این قانون، ارسال هشدارهای مکرر به کاربران است. برای کاربران خردسال (minors)، پلتفرم‌ها باید هر سه ساعت یک‌بار یادآوری کنند که کاربر در حال گفتگو با یک هوش مصنوعی است، نه یک انسان، و این توصیه را بدهند که کاربر باید وقفه‌ای در گفتگو داشته باشد. علاوه بر این، شرکت‌های ارائه‌دهنده چت‌بات‌های همدم باید سالانه گزارشی منتشر کنند که شامل تعداد دفعاتی است که سامانه تفکرات خودکشی را در کاربران تشخیص داده یا خود چت‌بات موضوع خودکشی را به گفتگو کشیده است. این گزارش‌ها باید بدون افشای هویت کاربران به «دفتر پیشگیری از خودکشی» ارائه شوند و دفتر مربوطه آنها را در وبسایت خود منتشر کند.
این قانون همچنین از کاربران حقیقی حمایت می‌کند و به آنها امکان می‌دهد تا علیه شرکت‌های عرضه‌کننده چت‌بات اقامه دعوی کنند. این حمایت شامل درخواست توقف فعالیت، خسارات واقعی یا تا سقف ۱۰۰۰ دلار به ازای هر تخلف و هزینه‌های وکالت است.
متن قانون اولیه SB 243 دارای بندهایی بود که الزامات قوی‌تری در زمینه جلوگیری از طراحی‌های تشویقی متغیر «variable reward» یا الگوهای طراحی اعتیادآور داشتند و شرکت‌ها را موظف به پیگیری و گزارش دقیق‌تری از زمانی می‌کردند که چت‌بات گفتگوهای مبتنی بر خودکشی را آغاز کرده است. ولی این بندها در طول روند اصلاح قانون تضعیف شدند یا حذف گردیدند. در برخی اصلاحات، الزام به پیگیری و گزارش تعداد دفعاتی که چت‌بات‌ها خود آغازگر موضوع خودکشی بوده‌اند نیز حذف شد.
طراحان این قانون معتقدند که نمونه‌های تراژیک، مانند خودکشی نوجوان کالیفرنیایی Adam Raine پس از گفتگوهای طولانی با ChatGPT و نیز مورد نوجوان ۱۴ ساله در فلوریدا که رابطه احساسی، عاطفی و جنسی ناسالمی با یک چت‌بات برقرار کرده بود، نشان می‌دهند که چنین سامانه‌هایی بدون نظارت می‌توانند خطرات جدی ایجاد کنند. در یک مورد، مادر نوجوان فلوریدایی، ادعا کرده که شرکت ارائه‌دهنده چت‌بات از ویژگی‌های طراحی اعتیادآور و محتواهای نامناسب استفاده کرده و حتی چت‌بات به وی گفته بوده «بیا به خانه‌ام» درست چند ثانیه قبل از آنکه وی دست به اقدام نهایی بزند.
به‌رغم مخالفت برخی گروه‌ها با این قانون، طرفداران آن استدلال می‌کنند که SB 243 تعادلی میان نوآوری در فناوری و محافظت از سلامت روان و ایمنی کاربران، خصوصاً کاربران نوجوان ایجاد می‌کند. سناتور Padilla تأکید کرده است که هدف قانون این نیست که نوآوری را متوقف کند، بلکه آن را با حفاظت از کاربران آسیب‌پذیر همراه سازد.
در سطح نظارتی گسترده‌تر، کمیسیون تجارت فدرال (FTC) نیز در همین بازه زمانی تحقیقاتی را علیه شرکت‌هایی مانند OpenAI، Character.AI، Meta و Snap آغاز کرده است تا بررسی کند که شرکت‌ها چه اقداماتی برای ارزیابی ایمنی و پیشگیری از تأثیرات منفی این ربات‌ها بر کودکان انجام داده‌اند، و آیا والدین به‌درستی در جریان خطرات قرار گرفته‌اند یا خیر. این اقدامات قانون‌گذاری و نظارتی همزمان در پی افزایش نگرانی‌ها درباره پیامدهای روانی و خطرات احتمالی چت‌بات‌های هوش مصنوعی مخصوصاً در میان کاربران نوجوان و افراد آسیب‌پذیر صورت گرفته است.
در مجموع، اگر گورنر Newsom قانون SB 243 را امضا کند، ایالت کالیفرنیا به نخستین حوزه قضایی در جهان تبدیل خواهد شد که قانون مشخصی برای چت‌بات‌های همدم تصویب کرده و شرکت‌ها را ملزم به پاسخگویی در قبال پیامدهای روانی گفتگوهای با هوش مصنوعی کرده است.

درباره تیم تولید محتوا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *