TechNews.bg
E-обществоВодещи новиниНовиниТоп новини

Разговорите с чатбот не са невинни: правни рискове

Създателят на ChatGPT предупреди, че могат да се ползват като доказателство в съда

Към момента няма правни гаранции, които биха защитили човек от разговор с чатбот (снимка: CC0 Public Domain)

Кореспонденцията на човек с изкуствен интелект може да бъде използвана срещу него в съда в случай на престъпление. За това предупреди главният изпълнителен директор на OpenAI – Сам Алтман, създателят на популярното AI приложение ChatGPT, с което започна бумът на изкуствения интелект.

Към момента няма правни гаранции, които биха защитили подобни разговори на човек с AI, за разлика от поверителността, изисквана при комуникация с адвокати, лекари или психотерапевти.

Както отбелязва шефът на екипа, разработил най-популярния чатбот, ако делото стигне до съда, представителите на OpenAI ще бъдат задължени да предадат кореспонденцията на потребителите като доказателство.

Поверителност в ChatGPT

Сам Алтман предупреди потребителите на ChatGPT, които споделят всичко с чатбота: информацията и данните могат да бъдат използвани като доказателство в съда в случай на престъпление.

Британският Гардиън цитира думите на Сам Алтман, че подобни разговори нямат същата правна защита, която може да имате с истински терапевти, лекари или адвокати.

„Ако говорите с ChatGPT за най-личните си неща и след това бъдете съдени, може да бъдем принудени да предоставим тези данни и мисля, че това е много погрешно”, каза ръководителят на технологичната компания.

Сам Алтман посочи, че са необходими нови закони за поверителност на историята на чатовете, отбелязвайки, че този проблем трябва да бъде решен спешно. В същото време той уточни, че екипът на OpenAI все още не е разбрал как трябва да работи регулацията при разговор с ChatGPT.

„Преди година никой не трябваше да мисли за това, а сега е огромен проблем от рода на: Как ще регулираме това?”, коментира Сам Алтман.

За разлика от приложенията за съобщения с криптиране от край до край, като WhatsApp (собственост на Meta) или Signal, OpenAI може да преглежда чатовете в ChatGPT. Това се прави, за да се подобри производителността на технологиите за изкуствен интелект или да се наблюдават нарушенията.



В същото време чатовете, изтрити от потребители на безплатни, Plus и Pro акаунти, се премахмат в рамките на 30 дни, освен ако законът не изисква запазването им по правни или свързани със сигурността причини.

Ако бъде заведено дело срещу потребител на чатбот, OpenAI може да бъде принудена да предостави кореспонденцията с ChatGPT като доказателство, което Сам Алтман нарича изключително нелепа ситуация.

Разработчиците не са защитени

По-рано тази година федерален съд на САЩ постанови, че Първата поправка към Конституцията не защитава технологичната компания Character.AI от съдебен иск, свързан със самоубийството на тийнейджърка в Орландо, Флорида. Първата поправка гарантира свободата на словото.

Съдия Ан Конуей отхвърли няколко искания на ответниците от Character Technologies и нейните основатели Даниел де Фрейтас и Ноама Шазира, които се опитаха да отменят дело, заведено от майката на Севела Сетцер. Тийнейджърката се самоуби през 2024 г. след месеци взаимодействие с чатботове на Character.AI, имитиращи измислени герои от поредицата „Игра на тронове”.

Ан Конуей постанови, че отговорите на услугите на AI не могат да се считат за правно значима реч. Тя предположи, че големият езиков модел (LLM), който е в основата на изкуствения интелект, е различен от съдържанието, защитено от Първата поправка, включително книги, филми и видеоигри.

Според съдията, Character.AI може да защити правото на потребителите да получават отговори от чатбота, но не може да претендира за подобна защита за генерираните текстове.

Ан Конуей също отхвърли иска на Меган Гарсия, майката на тийнейджър, която твърди, че ответниците умишлено са причинили емоционална вреда на Сюъл Сетцер. Представителите на Гарсия твърдят, че Google може да носи отговорност за използването на чатботове на Character.AI, както и за подпомагане и подстрекателство към действията на тази ИТ компания, тъй като подписа лицензионна сделка за 2,7 милиарда долара с нея.

Представител на Character.AI заяви, че технологичната компания възнамерява да защити позицията си по същество на делото. Според него, компанията е внедрила функции на изкуствен интелект, насочени към гарантиране на безопасността на потребителите, като същевременно поддържа ангажиращо изживяване.

Това включва специален модел за потребители под 18 години, филтриране на символи, известия за времето на употреба и други мерки. Разработчиците са внедрили и механизми за идентифициране и предотвратяване на диалози за самонараняване.

Мерките включват изскачащи известия, които пренасочват потребителите към национална телефонна линия за помощ при самоубийство и други кризисни ситуации.

още от категорията

ChatGPT вече показва реклами, дори на платените абонати

TechNews.bg

Провал в тестове за сигурност – никой не може да контролира суперинтелект

TechNews.bg

AI агент Kiro разработва самостоятелно софтуер

TechNews.bg

Три принципа, без които изкуственият интелект ще полудее

TechNews.bg

AI анализира разговорите в затвора, предотвратява престъпления

TechNews.bg

AI за умно управление на градските паркове и зеленина: Мадрид се пробва

TechNews.bg

Коментари