随着OpenAI发布ChatGPT已经过去15个月,现在数以千计的医生正在使用基于大型语言模型的类似产品。有公司声称其工具支持14种语言。这些AI工具不仅节省了医生的时间,防止了职业倦怠,还可能改变了医患关系的本质。在医生与患者的互动中,信任、透明度、隐私保护以及人类联系的未来等问题变得尤为重要。
在你下次的体检中,医生可能会使用一款AI智能手机应用来记录对话,这款应用能够听取、记录并即时整理成笔记供你事后查阅。这种工具还可能为医生的雇主带来更多收入,因为它不会遗漏任何可以合法向保险公司收费的细节。
医生在使用这些工具前应征得你的同意。你也可能在医生办公室签署的表格中看到一些新的措辞。
其他的AI工具可能在帮助医生起草信息,但你可能永远不会知道。
大型语言模型可能会误解输入或甚至编造不准确的回应,这种效应被称为“幻觉”。新工具内置了防护措施,试图防止不准确的信息传达给患者或记录在电子健康档案中。
AI工具可以被设置为友好、有同情心和提供信息。但它们有时也会过度行事。在科罗拉多州,一位患者因为AI生成的信息中提到流鼻涕可能是大脑液体泄漏而感到惊慌(实际上并非如此)。一名护士没有仔细校对就错误地发送了信息。
另一方面,使用AI的医生在医疗预约期间不再需要一直盯着电脑。他们可以与患者进行眼神交流,因为AI工具会记录检查过程。
这种工具需要清晰的语音输入,因此医生们正在学习如何清楚地口头解释问题。