For AI application systems, does the update of the knowledge base count as a change to the computerized system? If it is merely a plugin tool where AI recognition replaces manual data entry but still requires review and submission by the current account holder, does this count as a computerized system? Does it require validation?
Peter:这是一个非常有趣的问题,因为当我们查看新的附录22时,新的附录22是拟议的法规,还没有最终定稿,目前正在公开征求意见,但可能不会有太大变化。它没有提及大语言模型(可能这里指的是这类模型)。因此,如果你正在使用一个大语言模型,并且它是动态的,也就是说,它会根据从你、互联网或其他信息来源接收到的新信息而发生变化,那么你必须非常非常小心模型的性能。这就是为什么我认为附录22中没有包含这一内容,因为监管机构确实不知道如何在GMP的背景下使用这样的动态模型并同时管理风险。但公司确实在用,所以我不想说没有人在这样做,因为确实有人在用。我见过它被用来帮助对偏差进行聚类,以帮助他们识别相似的偏差类型,我还见过它帮助他们编写SOP和其他东西。只是你必须找到一种方法来管理模型的风险,尤其是在模型不断变化的情况下。所以我只是想说,你仍然可以使用,只是法规中没有规定,没有明确的路径,你必须在质量风险管理方面非常先进,才能在GMP中使用这些动态模型。
Peter:至于问题的第二部分,答案是肯定的。如果AI取代了人工录入,或者在GMP环境下代替人类完成一些简单的任务,答案是肯定的,它确实算计算机化系统,并且确实需要验证。同样,附录22中没有提及,但FDA有一份指南可以帮助你确定如何进行这种验证。他们不叫它验证,而是称之为确定模型的可靠性,但思路是非常相似的。
(识林)所以,AI是一个工具。如果它用于提高效率,这是一回事。但如果它被用作控制的一部分,那就是另一回事了。那样的话,就需要遵守GMP法规。
Peter:两者都是。即使你只是把它当作一个辅助工具,来帮你编写SOP,也需要加以考虑。一些大型制药公司已经在这样做了。他们告诉我,在开始之前,他们必须设置一些“护栏”。因此,如果你用AI来帮助编写SOP,会有风险,因为即使有人工审核,风险仍然存在。因为说实话,如果你拿到ChatGPT或其他AI辅助工具生成的内容,你可能不会那么彻底地去审核,因为你会觉得“这看起来还行”。所以风险在于,进行审核的人开始直接接受模型生成的信息。最终这些信息可能会进入SOP,并最终影响患者。所以他们所做的是设置“护栏”,比如,你可以用它做这些事情,而且只能做这些事情,并且必须基于他们对使用该助手可能遇到或经历的风险的评估。
(识林)是的,护栏。谢谢。不过这确实是个棘手的问题。所以总结一下,它们都需要验证,或者更恰当的说法是可靠性评估。但这可能会非常快,也可能非常简单,这取决于预期用途。
这{{threadTextType}}正{{isAdminText}}
为帮助审核人员更快处理,请填写举报原因:
为帮助审核人员更快处理,请填写举报原因: