**Giza的CEO Renç Korzay强调,在AI代理开发中,道德考虑必须是“建筑上强制执行的”。他主张内置用户控制和“安全设计”,以减少监管负担。
人工智能的快速发展导致了越来越复杂的AI代理的发展,能够在各个领域执行复杂任务。然而,随着这些代理变得更加强大和自主,人们对道德考虑和潜在风险的担忧也越来越多。
为了解决这些问题,Giza的首席执行官Renç Korzay,一位行业老将,主张优先考虑用户安全和主权,他表示这必须是“不可妥协的”并且“在架构上得到强制执行”。Korzay认为道德准则应当转化为具体的工程要求,塑造人工智能代理设计的每一个方面。
在对Bitcoin.com News的问题书面回答中,Korzay还强调了对完全用户控制的需求。他补充说,这种控制应嵌入到代理的架构中,确保用户保持全面监督和权威。Korzay表示,与依赖委派控制的系统不同,道德人工智能代理应通过可以立即撤销的许可框架运行。
对于吉萨首席执行官来说,核心信息很明确:道德考虑必须内置到人工智能系统的基础架构中,而不是作为事后的想法添加。
“在DeFi中,用户的财务资产岌岌可危,道德考量必须内置于AI系统的基础架构中,而不是作为事后添加的内容,”Korzay说。
构建信任并确保AI代理的负责任发展,这种“安全至上”的态度至关重要。转向变得更加复杂的去中心化金融(DeFi)市场,Korzay透露,现在可以部署AI代理来优化用户在主要协议中的头寸,并执行复杂的策略,同时用户保持对资金的完全控制。
与此同时,首席执行官认为,DeFi 中有效的用户保护来自强大的产品设计,而不仅仅来自外部监管。他说,这种“安全设计”方法旨在创造一个安全性“内在”的生态系统,从而最大程度地减少对严厉监管的需求。
Korzay断言,构建固有安全的系统将使利益相关者的利益保持一致,并积极与监管机构合作,以塑造未来的政策。重点是通过精心设计的产品创造价值,使合规成为自然的结果,而不是创新的障碍。
展望未来,科尔赛表示,他预见到“异智能金融”将在2030年主导,AI代理将成为主要市场接口,超越人类认知限制。届时,人类将设定战略目标,而AI代理将处理执行。
“采用曲线不会是线性的-它会是指数的。当这些代理展示他们的能力持续胜过手动操作同时保持安全保证时,他们将成为与金融市场互动的默认方式,”首席执行官补充道。