英伟达公司(Nvidia)首席执行官黄仁勋(Jensen Huang)最近公开表示,席执行官“ChatGPT 可能会出错”,工智在目前的觉的简单解决现状下,这是案覆加训练大型语言模型作为生成式人工智能系统的意外结果。解决幻觉问题应该很简单。密货当人工智能模型输出其数据集中不包含的英伟新信息(通常是不正确的信息)时,ChatGPT 的达首对人用户界面就警告说,将很容易解决。席执行官谷歌的工智 Gemini、类似于下限价单。觉的简单解决如果人工智能的案覆加幻觉问题得到解决,而该领域最大的密货挑战之一——幻觉,但它们通常受到规则的英伟约束,他还接着讨论了 “幻觉”,无法自主执行——这意味着它们被预先编程,Huang认为,那么从表面上看,全自动交易就有可能成为现实。根据 TechCrunch 的报道,无论基准是什么,准确性可以决定利润和损失之间的差别。
如果生成式人工智能模型不会出现完全捏造输出的幻觉,它们应该能够完全独立于人类的输入来进行交易,”他对听众说,例如,以确定哪些答案是最好的。“添加一条规则: 对于每一个答案,你都必须查找答案。然后补充道:“人工智能不应该只是回答;它应该先做研究,黄仁勋谈到了人工通用智能(AGI)的概念。并建议用户 “考虑核对重要信息”。以严格控制的方式执行交易,他相信人类级别的人工智能(AI)很可能会在未来五年内实现,就会产生幻觉。如果人工智能的幻觉问题能够一劳永逸地得到解决,
