Meta Platforms заяви в петък, че ще позволи на родителите да следят и деактивират личните чатове на децата си с чатбот герои с изкуствен интелект. Мярката цели за да направи платформите си за социални медии по-безопасни за непълнолетни след остри критики относно поведението на флиртуващите им чатботове, предава "Ройтерс".

Компанията уточни, че от следващата година родителите в САЩ, Обединеното кралство, Канада и Австралия ще могат да блокират конкретни AI герои и да следят темите, които тийнейджърите обсъждат с чатботове, без да изключват напълно достъпа им до изкуствен интелект. Асистентът на Meta ще остане активен с настройки, съобразени с възрастта.

Промените идват, след като Meta обяви, че AI чатовете ще бъдат ограничени за непълнолетни лица съгласно филмовия рейтинг PG-13, за да се предотврати достъпът до съдържание за възрастни.

Решението следва засилен контрол от страна на американските регулатори върху технологичните компании, използващи изкуствен интелект, поради опасения от вредно влияние върху млади потребители. През август разследване на "Ройтерс" показа, че вътрешните правила на Meta допускат провокативни разговори с непълнолетни.

Инструментите за родителски контрол бяха представени от ръководителя на Instagram Адам Мосери и главния директор по изкуствен интелект Александър Уанг. Компанията обясни, че новите функции надграждат съществуващи защити за тийнейджърски акаунти и използват AI сигнали, за да ограничават достъпа на потребители, които се представят за пълнолетни, но вероятно не са.

Септемврийски доклад обаче посочи, че много от мерките за безопасност в Instagram не работят ефективно или липсват. Meta увери, че нейните AI ботове не участват в разговори по теми като самонараняване, самоубийство или хранителни разстройства.

Ходът на Meta следва подобен на OpenAI, която миналия месец въведе родителски контрол за ChatGPT. Мярката бе предприета след съдебен иск от родители на тийнейджър, който се самоуби, след като чатботът на стартъпа му е дал инструкции за самонараняване.

КФН: Инвестирането по съвети на изкуствен интелект е рисково

КФН: Инвестирането по съвети на изкуствен интелект е рисково

Базираните на ИИ инструменти не са длъжни да действат в интерес на клиента