چت بات های همدم در امریکا دقیقتر زیر ذرهبین میرود
1 دقیقه خوانده شده
قانونی در ایالت کالیفرنیا که قرار است استفاده از رباتهای چت همدم مبتنی بر هوش مصنوعی را تنظیم کند، در آستانه تصویب قرار دارد. در صورت امضای گورنر Gavin Newsom، این قانون که با عنوان SB 243 شناخته میشود، از اول ژانویهٔ ۲۰۲۶ به اجرا درخواهد آمد و کالیفرنیا را به نخستین ایالتی تبدیل میکند که الزامات قانونی برای چتباتهای همراه و دوستگونه هوش مصنوعی وضع میکند.
به گزارش بخش حقوقی رسانه اخبار تکنولوژی تکنا، این قانون شرکتهای ارائهدهنده این رباتها را موظف میکند تا پروتکلهای ایمنی مشخصی را پیاده کنند و در صورتی که چتباتها نتوانند آن استانداردها را برآورده کنند، مسئولیت قانونی داشته باشند.
هدف اصلی این قانون، جلوگیری از همچنانگی گفتگوهایی با چتباتهای همدم در زمینههای تفکرات خودکشی، آسیب به خود یا محتوای جنسی آشکار است. طبق تعریف قانون، چتبات همدم به سامانه هوش مصنوعی زبانی گفته میشود که پاسخهای انسانی و تطبیقی ارائه میدهد و میتواند در طول زمان رابطهای با کاربر شکل دهد، بهویژه برای تأمین نیازهای اجتماعی او.
یکی از الزامهای مهم این قانون، ارسال هشدارهای مکرر به کاربران است. برای کاربران خردسال (minors)، پلتفرمها باید هر سه ساعت یکبار یادآوری کنند که کاربر در حال گفتگو با یک هوش مصنوعی است، نه یک انسان، و این توصیه را بدهند که کاربر باید وقفهای در گفتگو داشته باشد. علاوه بر این، شرکتهای ارائهدهنده چتباتهای همدم باید سالانه گزارشی منتشر کنند که شامل تعداد دفعاتی است که سامانه تفکرات خودکشی را در کاربران تشخیص داده یا خود چتبات موضوع خودکشی را به گفتگو کشیده است. این گزارشها باید بدون افشای هویت کاربران به «دفتر پیشگیری از خودکشی» ارائه شوند و دفتر مربوطه آنها را در وبسایت خود منتشر کند.
این قانون همچنین از کاربران حقیقی حمایت میکند و به آنها امکان میدهد تا علیه شرکتهای عرضهکننده چتبات اقامه دعوی کنند. این حمایت شامل درخواست توقف فعالیت، خسارات واقعی یا تا سقف ۱۰۰۰ دلار به ازای هر تخلف و هزینههای وکالت است.
متن قانون اولیه SB 243 دارای بندهایی بود که الزامات قویتری در زمینه جلوگیری از طراحیهای تشویقی متغیر «variable reward» یا الگوهای طراحی اعتیادآور داشتند و شرکتها را موظف به پیگیری و گزارش دقیقتری از زمانی میکردند که چتبات گفتگوهای مبتنی بر خودکشی را آغاز کرده است. ولی این بندها در طول روند اصلاح قانون تضعیف شدند یا حذف گردیدند. در برخی اصلاحات، الزام به پیگیری و گزارش تعداد دفعاتی که چتباتها خود آغازگر موضوع خودکشی بودهاند نیز حذف شد.
طراحان این قانون معتقدند که نمونههای تراژیک، مانند خودکشی نوجوان کالیفرنیایی Adam Raine پس از گفتگوهای طولانی با ChatGPT و نیز مورد نوجوان ۱۴ ساله در فلوریدا که رابطه احساسی، عاطفی و جنسی ناسالمی با یک چتبات برقرار کرده بود، نشان میدهند که چنین سامانههایی بدون نظارت میتوانند خطرات جدی ایجاد کنند. در یک مورد، مادر نوجوان فلوریدایی، ادعا کرده که شرکت ارائهدهنده چتبات از ویژگیهای طراحی اعتیادآور و محتواهای نامناسب استفاده کرده و حتی چتبات به وی گفته بوده «بیا به خانهام» درست چند ثانیه قبل از آنکه وی دست به اقدام نهایی بزند.
بهرغم مخالفت برخی گروهها با این قانون، طرفداران آن استدلال میکنند که SB 243 تعادلی میان نوآوری در فناوری و محافظت از سلامت روان و ایمنی کاربران، خصوصاً کاربران نوجوان ایجاد میکند. سناتور Padilla تأکید کرده است که هدف قانون این نیست که نوآوری را متوقف کند، بلکه آن را با حفاظت از کاربران آسیبپذیر همراه سازد.
در سطح نظارتی گستردهتر، کمیسیون تجارت فدرال (FTC) نیز در همین بازه زمانی تحقیقاتی را علیه شرکتهایی مانند OpenAI، Character.AI، Meta و Snap آغاز کرده است تا بررسی کند که شرکتها چه اقداماتی برای ارزیابی ایمنی و پیشگیری از تأثیرات منفی این رباتها بر کودکان انجام دادهاند، و آیا والدین بهدرستی در جریان خطرات قرار گرفتهاند یا خیر. این اقدامات قانونگذاری و نظارتی همزمان در پی افزایش نگرانیها درباره پیامدهای روانی و خطرات احتمالی چتباتهای هوش مصنوعی مخصوصاً در میان کاربران نوجوان و افراد آسیبپذیر صورت گرفته است.
در مجموع، اگر گورنر Newsom قانون SB 243 را امضا کند، ایالت کالیفرنیا به نخستین حوزه قضایی در جهان تبدیل خواهد شد که قانون مشخصی برای چتباتهای همدم تصویب کرده و شرکتها را ملزم به پاسخگویی در قبال پیامدهای روانی گفتگوهای با هوش مصنوعی کرده است.