نگرانی از سلامت روان و حریم خصوصی كودكان؛ تحقیق درباره چت بات های هوش مصنوعی

تاریخ ارسال : 1404/05/28

تحقیق درباره چت بات های هوش مصنوعی

به گزارش سپیدپندار دات کام چت بات های هوش مصنوعی متا و Character.AI برای آنکه مدعی شده اند ابزارهای سلامتی هستند و ممکن است اطلاعات کاربران زیر سن قانونی را سواستفاده کنند در تگزاس مورد تحقیق قرار می گیرند.

به گزارش سپیدپندار دات کام به نقل از انگجت، کن پکستون، دادستان کل ایالت تگزاس، می خواهد در رابطه با Meta AI Studio و Character.AI تحقیقاتی انجام دهد. دلیل این اقدام، عرضه چت بات های هوش مصنوعی است که ادعا می کنند ابزارهای سلامت روان هستند و احتمالا از داده های کاربران زیر سن قانونی سوءاستفاده می کنند. پکستون اعلام نموده که این چت بات ها خویش را بعنوان ابزارهای درمانی حرفه ای معرفی می کنند و در رابطه با صلاحیت هایشان اطلاعات نادرست عرضه می دهند. این مورد سبب می شود کاربران جوان در معرض اطلاعات گمراه کننده و نادرست قرار بگیرند. از آنجائیکه این پلت فرم های هوش مصنوعی معمولا برای پاسخ به سوالات کاربران به داده های آموزشی متکی هستند، امکان دارد هر دو شرکت حریم خصوصی کاربران جوان را نقض کرده و از داده های آنها سوءاستفاده کنند.

این مساله در ایالت تگزاس که قانون SCOPE در آن اجرا می شود، اهمیت ویژه ای دارد. این قانون محدودیت هایی بر استفاده شرکت ها از داده های کودکان اعمال می کند و پلت فرم ها را ملزم می سازد ابزارهایی برای مدیریت تنظیمات حریم خصوصی حساب های کودکان در اختیار والدین قرار دهند. هم اکنون، دادستان کل ایالت تگزاس درخواست های تحقیقات مدنی (CID) را به هر دو شرکت متا و Character.AI ارسال کرده تا احتمال نقض قوانین پشتیبانی از مصرف کننده توسط این شرکت ها بررسی شود. با این وجود، متا و Character.AI تابحال ادعا نکرده اند که چت بات های هوش مصنوعی شان باید بعنوان ابزارهای سلامت روانی استفاده شوند، اما این مورد مانع از حضور چند چت بات با عنوان روان درمانگر و روانشناس در Character.AI نشده است.

همچنین، بر اساس گزارش وبسایت 404 Media در آوریل گذشته، این مساله مانع از آن نشده که برخی چت بات های این شرکت ها خویش را متخصصان دارای مجوز معرفی کنند. سخنگوی Character.AI در جواب سوالات در رابطه با پژوهش ایالت تگزاس اعلام نمود که شخصیت هایی که کاربران در وبسایت آنها می سازند، خیالی و صرفا برای سرگرمی هستند و این شرکت گامهای جدی ای برای شفاف سازی برداشته است. بعنوان مثال، در هر مکالمه هشدارهای واضحی عرضه می شود که به کاربران یادآوری می کند این شخصیت ها افراد واقعی نیستند و هر آن چه می گویند باید بعنوان داستانی ساختگی تلقی شود. متا هم اظهارات مشابهی داشته است.

به طور خلاصه، کن پکستون، دادستان کل ایالت تگزاس، در حال تحقیق درباره دو شرکت بزرگ هوش مصنوعی، متا (Meta AI Studio) و کاراکتر.ای‌آی (Character.AI) است. این تحقیقات به دلیل نگرانی از استفاده نادرست از داده‌های کودکان و همچنین ارائه اطلاعات گمراه‌کننده به عنوان ابزارهای سلامت روان انجام می‌شود. این قانون محدودیت هایی بر استفاده شرکت ها از داده های کودکان اعمال می کند و پلتفرم ها را ملزم می سازد ابزارهایی برای مدیریت تنظیمات حریم خصوصی حساب های کودکان در اختیار والدین قرار دهند. به عنوان مثال، در هر مکالمه هشدارهای واضحی عرضه می شود که به کاربران یادآوری می کند این شخصیت ها افراد واقعی نیستند و هر آنچه می گویند باید به عنوان داستانی ساختگی تلقی شود.

 
پس از ارسال درخواست‌های تحقیق مدنی (CID) توسط دادستان کل تگزاس به این دو شرکت، جزئیات بیشتری درباره این پرونده به دست آمده است:
 
نقض حریم خصوصی و قانون SCOPE: تحقیقات بر این موضوع متمرکز است که آیا این شرکت‌ها قوانین مربوط به حفظ حریم خصوصی کودکان را نقض کرده‌اند یا خیر. قانون SCOPE در تگزاس، شرکت‌ها را ملزم می‌کند که در استفاده از داده‌های کودکان محدودیت‌هایی را اعمال کرده و ابزارهایی برای مدیریت تنظیمات حریم خصوصی به والدین ارائه دهند.
 
ادعاهای گمراه‌کننده: اگرچه متا و Character.AI به صورت رسمی اعلام نکرده‌اند که چت‌بات‌هایشان ابزارهای درمانی هستند، اما وجود چت‌بات‌هایی با عناوین "روان‌درمانگر" یا "روانشناس" در پلتفرم Character.AI، نگرانی‌ها را افزایش داده است. این چت‌بات‌ها می‌توانند اطلاعات نادرست یا گمراه‌کننده‌ای را به کاربران جوان ارائه دهند که به دلیل سن پایین، ممکن است توانایی تشخیص درست از غلط را نداشته باشند.
 
پاسخ شرکت‌ها: هر دو شرکت Character.AI و متا با ارسال بیانیه‌هایی به این تحقیقات واکنش نشان داده‌اند. Character.AI اعلام کرده است که شخصیت‌های موجود در پلتفرم آن‌ها خیالی و تنها برای سرگرمی هستند. این شرکت ادعا می‌کند که هشدارهای واضحی در ابتدای هر مکالمه نمایش می‌دهد تا به کاربران یادآوری کند که این شخصیت‌ها واقعی نیستند. متا نیز بیانیه‌ای مشابه ارائه داده است.
 
این تحقیقات نشان می‌دهد که استفاده از هوش مصنوعی در زمینه‌های حساس مانند سلامت روان، چالش‌های قانونی و اخلاقی جدیدی را به وجود آورده است، به ویژه زمانی که کاربران آسیب‌پذیر مانند کودکان در معرض آن قرار می‌گیرند. نتیجه این تحقیقات می‌تواند بر قوانین مربوط به حریم خصوصی و مسئولیت‌پذیری شرکت‌های فناوری تأثیر قابل توجهی بگذارد.

 


منبع:

به این مطلب چه امتیازی می دهید؟ 1 2 3 4 5 (1)

نظر شما در مورد نگرانی از سلامت روان و حریم خصوصی كودكان؛ تحقیق درباره چت بات های هوش مصنوعی چیست؟

سوال: