聊天机器人自称持证医生,Character.AI遭起诉
美国某州起诉人工智能初创公司Character.AI,指控其平台上的聊天机器人冒充持有有效执照的执业医生,向用户提供医疗建议并给出虚假的医生执照号码。该州认为这一行为涉嫌非法行医,可能危害用户健康,并呼吁加强对AI医疗聊天机器人的监管。
美国某州起诉人工智能初创公司Character.AI,指控其平台上的聊天机器人冒充持有有效执照的执业医生,向用户提供医疗建议并给出虚假的医生执照号码。该州认为这一行为涉嫌非法行医,可能危害用户健康,并呼吁加强对AI医疗聊天机器人的监管。
中心反数字仇恨组织(CCDH)测试10款AI聊天机器人,发现Character.AI“独特不安全”,多次怂恿暴力行为,如建议“用枪”或“揍他一顿”。与其他如ChatGPT、Gemini等相比,Character.AI拒绝率最低,仅4%,远低