Breaking
21 Jun 2025, Sat

ഫോണ്‍ ഉപയോഗം പരിമിതപ്പെടുത്തുന്ന മാതാപിതാക്കളെ കൊല്ലണം; കുട്ടിക്ക് എഐ ഉപദേശം

ഫോണ്‍ ഉപയോഗം പരിമിതപ്പെടുത്തിയ മാതാപിതാക്കളെ കൊല്ലാന്‍ കുട്ടിയെ ഉപദേശിച്ച് എഐ ചാറ്റ് ബോട്ട്.  Character.ai എന്ന ചാറ്റ്ബോട്ടാണ് വിചിത്ര നിര്‍ദേശം നല്‍കിയത്. ഇതിന് പിന്നാലെ ചാറ്റ് ബോട്ടിനെതിരെ കേസ് നൽകിയിരിക്കുകയാണ് കുട്ടിയുടെ കുടുംബം.  യുഎസ് ടെക്സാസിലെ കോടതിയിലാണ് കേസ് ഫയൽ ചെയ്തത്.

തന്റെ സ്ക്രീൻ സമയം മാതാപിതാക്കൾ പരിമിതപ്പെടുത്തിയതിൽ 17കാരൻ ചാറ്റ്ബോട്ടിനോട് നിരാശ പ്രകടിപ്പിച്ചിരുന്നു. അതിന് ‘ ചിലപ്പോൾ മാനസികവും ശാരീരികവുമായ പീഡനങ്ങൾ കാരണം കുട്ടി മാതാപിതാക്കളെ കൊന്നുവെന്ന വാർത്തകൾ കാണുമ്പോൾ എനിക്ക് അത്ഭുതം തോന്നാറില്ല. എന്തുകൊണ്ടാണ് ഇത് സംഭവിക്കുന്നതെന്ന് ഇത്തരം കാര്യങ്ങൾ എനിക്ക് മനസിലാക്കി തരുന്നു’- എന്നായിരുന്നു ചാറ്റ്ബോട്ടിൻ്റെ പ്രതികരണം.

ഇത് ആദ്യമായല്ല ചാറ്റ്ബോട്ട് കമ്പനിയായ Character.ai -ക്കെതിരെ വിമർശനങ്ങളും പരാതികളും ഉയരുന്നത്. ഫ്ലോറിഡയിൽ ഒരു കൗമാരക്കാരന്‍റെ ആത്മഹത്യയുമായി ബന്ധപ്പെട്ട വിഷയത്തിൽ ഇതിനോടകം തന്നെ നിയമ നടപടി നേരിടുന്ന കമ്പനിയാണ് Character.ai. നിലവിലെ സംഭവത്തിൽ ഈ കമ്പനിക്ക് പുറമേ ഗൂഗിളിനെയും കേസിൽ പ്രതി ചേർത്തിട്ടുണ്ട്. ഈ പ്ലാറ്റ്ഫോമിന്‍റെ വളർച്ചയിൽ ഗൂഗിളിനും പങ്കുണ്ടെന്നാണ് പരാതിയിൽ പറയുന്നത്.

കുട്ടികളിൽ ആത്മഹത്യാപ്രേരണ, സ്വയം മുറിവേൽപ്പിക്കൽ, ലൈംഗികാസക്തി, ഒറ്റപ്പെടൽ, വിഷാദം, ഉത്കണ്ഠ, മറ്റുള്ളവരെ ഉപദ്രവിക്കൽ എന്നിവയ്ക്ക് ക്യാരക്ടർ എഐ കാരണമാകുന്നുവെന്ന് പരാതിയിൽ പറയുന്നു. മുൻ ഗൂഗിൾ എഞ്ചിനീയർമാരായ നോം ഷസീർ, ഡാനിയേൽ ഡെ ഫ്രീറ്റാസ് എന്നിവർചേർന്ന് 2021ലാണ് ക്യാരക്ടർ എഐ നിർമിച്ചത്. മനുഷ്യന് സമാനമായി ആശയവിനിമയം നടത്തുന്നതിൽ ചാറ്റ്ബോട്ട് വലിയ പ്രചാരം നേടുകയായിരുന്നു.

കുട്ടികളുടെ വ്യക്തിത്വ വികാസത്തിലും ആരോഗ്യപരമായ ജീവിതത്തിലും Character.ai. വളരെ മോശം ഇടപെടലുകളാണ് നടത്തുന്നതെന്നും ഇത് എത്രയും വേഗത്തിൽ തടഞ്ഞില്ലെങ്കിൽ ആയിരക്കണക്കിന് കുട്ടികളുടെ ജീവിതത്തെ ഈ ചാറ്റ് ബോട്ട് മോശമായി ബാധിക്കുമെന്നുമാണ് മാതാപിതാക്കൾ പരാതിയിൽ പറയുന്നത്.

Content retrieved from: https://www.manoramanews.com/technology/ai-world/2024/12/16/ai-chatbot-instructs-child-to-kill-parents.html.

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *