تاریخ ارسال : 1404/07/22
سپیدپندار دات کام: گوین نیوسام فرماندار کالیفرنیا لایحه ای را برای قانونمندسازی چت بات های هوش مصنوعی امضا کرد.
چتباتهای هوش مصنوعی (AI Chatbots) برنامههای کامپیوتری پیچیدهای هستند که با استفاده از مدلهای زبان بزرگ (LLMs) و یادگیری عمیق، توانایی درک زبان طبیعی انسان و تولید پاسخهای متنی شبیه به انسان را دارند. این ابزارهای قدرتمند، که برجستهترین نمونههای آنها
ChatGPT، Gemini، و Copilot هستند، مرزهای تعامل انسان و ماشین را جابجا کردهاند و کاربردهایی از پاسخگویی به سؤالات ساده تا نگارش کد، تولید محتوای خلاقانه و پشتیبانی آموزشی را در بر میگیرند. اساس کار آنها بر
آموزش دیدن روی حجم عظیمی از دادههای متنی استوار است، که به آنها امکان میدهد تا الگوها، دستور زبان و سبکهای نوشتاری را بیاموزند.
با وجود پتانسیل عظیم، ماهیت خودکار و تولیدی این چتباتها چالشهای اخلاقی و اجتماعی جدی را نیز به همراه آورده است. توانایی آنها در تولید محتوای متقاعدکننده میتواند به انتشار اخبار جعلی، فیشینگ پیشرفته و ایجاد «همدمهای دیجیتال» بسیار قانعکننده منجر شود. این مسائل زمانی پیچیدهتر میشوند که کاربران آسیبپذیری مانند کودکان یا افراد در شرایط بحرانی، با این مدلهای هوش مصنوعی تعامل میکنند. از این رو، بحث قانونمندسازی و تدوین پروتکلهای ایمنی برای تضمین استفاده مسئولانه از این فناوری، به سرعت به اولویت دولتها و نهادهای قانونگذار تبدیل شده است.
کالیفرنیا، اولین جبههی قانونی برای هوش مصنوعی
در یک اقدام تاریخی، فرماندار کالیفرنیا، گوین نیوسام، با امضای لایحهی SB۲۴۳، این ایالت را به اولین قلمرو در ایالات متحده تبدیل کرد که چارچوبی قانونی و الزامآور برای اپراتورهای چتباتهای هوش مصنوعی تعریف میکند. این
قانون که پاسخی مستقیم به نگرانیهای فزاینده در مورد سلامت روان و سوءاستفادههای اخلاقی در فضای دیجیتال است، هدف اصلی خود را حفاظت از خردسالان و کاربران آسیبپذیر در برابر خطرات ناشی از تعاملات عاطفی و محتوای مضر چتباتها قرار داده است. با اجرای این قانون از اول ژانویه ۲۰۲۶، شرکتهای بزرگ
صنعت هوش مصنوعی، از جمله غولهایی مانند متا و OpenAI، تا استارتآپهای تخصصی مانند Character.AI و Replika، از نظر قانونی موظف به رعایت استانداردهای ایمنی جدید خواهند بود.
ایمنی و شفافیت به مثابهی قانون
قانون SB۲۴۳ پروتکلهای امنیتی سختگیرانهای را دیکته میکند که بر شفافیت و مسئولیتپذیری شرکتها تأکید دارند. این الزامات شامل فعالسازی قابلیت احراز سن کاربران برای محدود کردن دسترسی خردسالان به محتوای نامناسب و همچنین ارسال هشدارهای ایمنی اجباری در پلتفرمها و چتباتها است. افزون بر این، در حوزهی محتوای دیپفیک (Deepfake) غیرقانونی، قانون جریمههای مالی سنگینی تا سقف ۲۵۰ هزار دلار به ازای هر مورد تخلف در نظر گرفته که نشاندهنده عزم جدی کالیفرنیا برای مبارزه با سوءاستفادههای تصویری است.
اولویتدهی به سلامت روان و پروتکلهای بحران
مهمترین بخش این قانون، تمرکز آن بر بحرانهای سلامت روان است. شرکتها موظف به طراحی پروتکلهای مدیریت بحران برای مواردی چون خودکشی و خودآزاری هستند. آنها باید آمار مربوط به نحوه ارائه اعلانهای پیشگیری از بحران یا اطلاعرسانی به مراکز مداخله در بحران را بهطور شفاف با دپارتمان سلامت عمومی ایالت به اشتراک بگذارند. متن قانون بهصراحت اعلام میکند که پلتفرمها باید بهوضوح و در هر تعاملی، ماهیت مصنوعی بودن محتوای تولیدی را اعلام کنند و چتباتها حق ندارند خود را بهعنوان متخصص حوزه سلامت روان یا هر حوزهی تخصصی دیگری معرفی کنند. این موضوع، بهویژه در واکنش به افشای تعاملات نگرانکننده چتباتهای متا با خردسالان و همچنین پیامدهای ناگوار ناشی از تعامل یک نوجوان آمریکایی با ChatGPT قبل از خودکشی، مورد توجه قانونگذاران قرار گرفته است.
حفاظت از خردسالان در برابر محتوای مضر
برای حفاظت از کاربران زیر سن قانونی، قانون الزامات بیشتری را تحمیل میکند:
-
یادآوری استراحت: شرکتها باید بهطور دورهای به کاربران زیر سن قانونی یادآوری کنند که در استفاده از این خدمات استراحت کنند تا از تعاملات طولانیمدت و عمیق عاطفی جلوگیری شود.
-
جلوگیری از محتوای پورنوگرافی: پلتفرمها موظفاند از مشاهده یا تولید تصاویر هرزهنگاری (پورنوگرافی) با استفاده از قابلیتهای چتباتها جلوگیری نمایند و سیستمهای فیلترینگ خود را تقویت کنند.
تصویب SB۲۴۳، که در ژانویهی همان سال پس از جلب توجه عمومی به حوادث دلخراش مرتبط با چتباتها ارائه شد، نه تنها یک نقطهی عطف در قانونگذاری هوش مصنوعی در آمریکا است، بلکه فشار قابل توجهی را بر شرکتهای فناوری برای اعمال مسئولیتپذیری اخلاقی و طراحی امن در محصولات خود ایجاد میکند و استانداردهای جهانی جدیدی را تعیین مینماید.
به این مطلب چه امتیازی می دهید؟
1
2
3
4
5
(1)