摘要:可观察性是指通过检查系统的外部输出(如日志、指标和跟踪)来了解系统的内部状态。可观察性源自控制理论,是指无需直接访问即可推断系统内部正在发生的事情的能力。
可观察性是指通过检查系统的外部输出(如日志、指标和跟踪)来了解系统的内部状态。可观察性源自控制理论,是指无需直接访问即可推断系统内部正在发生的事情的能力。
为了直观地了解可观察性,我们可以以人体为例。我们不需要剖开身体就能了解其内部状态。通过测量体温、心率或血压等外部信号,我们可以推断出内部发生了什么。同样,在软件系统中,可观察性使我们能够评估应用程序的健康状况、性能和行为,而无需直接访问其内部流程。
TestComplete是一款自动化UI测试工具,这款工具目前在全球范围内被广泛应用于进行桌面、移动和Web应用的自动化测试。
TestComplete 集成了一种精心设计的自动化引擎,可以自动记录和回放用户的操作,方便用户进行UI(用户界面)测试,该工具提供了脚本和图形化界面操作支持。
传统监控侧重于跟踪预定义的指标或事件,回答诸如“服务器宕机了吗?”或“CPU 使用率是多少?”之类的问题。可观察性则更进一步,实现了开放式探索,例如“为什么这个用户会遇到延迟?”或“是什么导致了这种意外行为?”
通过提供对系统健康、性能和行为的可操作见解,可观察性使团队能够主动应对挑战,确保可靠性和无缝的用户体验。
人工智能可观测性的兴起
AI 可观测性建立在传统可观测性原则的基础上,将其扩展为监控和了解 AI 系统的独特组件。传统可观测性侧重于日志、跟踪和性能数据等软件指标,而 AI 可观测性则涵盖更广泛的变量,例如模型输出、决策模式和不同条件下的行为。它提供了对 AI 系统如何运作以及它们做出特定决策的原因的洞察。
人工智能可观察性的挑战
AI 可观测性带来了一系列独特的挑战,与传统的软件可观测性截然不同。这些独特属性要求采用一种先进的方法来监控和理解 AI 系统。
人工智能系统缺乏透明度:人工智能模型通常充当“黑匣子”,产生没有明确解释的输出。这种缺乏透明度会增加错误、偏见和意外后果的风险。
看不见的错误:AI 系统可能会引入传统开发中通常不会遇到的独特错误和不一致问题。意外的模型行为或自动决策的意外后果等问题需要一种新型的监控。
监控 AI 行为,而不仅仅是性能:传统的可观察性工具旨在监控系统性能,例如延迟、资源使用情况和正常运行时间。然而,AI 系统需要更广阔的视角来跟踪模型行为、检测漂移并识别系统性能之外的意外输出。
责任和信任:许多组织依赖第三方人工智能模型,这引发了人们对其准确性、合规性和可靠性的质疑。
技能和文化差距:AI 系统仍然相对较新,许多团队缺乏实施有效可观察性实践所需的技能或经验。如果没有正确的专业知识和思维方式,组织可能难以充分实现 AI 可观察性的好处。
复杂的调试:与确定性代码不同,AI 输出可能根据训练数据、上下文或环境因素而变化,这使得根本原因分析更具挑战性。
企业越来越多地将聊天机器人、推荐系统和预测分析等人工智能功能整合到其运营中。这些技术带来了创新,但也带来了风险。以加拿大航空为例,该公司部署的聊天机器人做出了意想不到的承诺,造成了客户服务问题。即使是谷歌这样的科技巨头也因人工智能功能行为不可预测而面临公众尴尬。这些事件凸显了组织不仅需要监控其人工智能系统是否正常运行,还需要监控其是否按预期运行的迫切需要。
人工智能可观测性领域的机遇
虽然 AI 可观测性带来了挑战,但它也为提高 AI 系统的可靠性、可扩展性和可信度提供了重要机会。GenAI 引入的抽象层允许开发人员更快地构建复杂的系统,从编码转向编排 AI 生成的组件。虽然这加速了开发,但也增加了风险,因为开发人员失去了对底层流程的精细控制。为了解决这些问题,AI 系统的可观测性必须不断发展以提供:
更深入的洞察:可以解码人工智能决策背后的逻辑并提出可操作洞察的工具。
道德护栏:根据预期用例验证人工智能行为并标记偏差的系统。
人为监督:维持问责的机制,确保人工智能增强而不是破坏系统可靠性。
在 SmartBear,可观察性始终致力于帮助开发人员和团队维护高质量、可靠的系统。随着软件格局随着人工智能的兴起而发展,我们对可观察性的看法也随之变化,以应对这些新挑战,同时坚守我们的核心使命:简化复杂性并提供切实可行的见解。
为团队提供可操作的见解: SmartBear 优先考虑解决实际问题的见解,超越表面层面的指标来回答诸如“为什么会发生这个问题?”之类的开放式问题。
以用户为中心的设计:我们强调清晰、可操作的见解,而不是令人不知所措的仪表板,从而使团队更容易做出明智的决策。
支持开发人员的发展:随着开发人员转向协调 AI 组件,SmartBear 提供支持他们不断变化的角色和职责的工具。
确保信任和质量:我们的解决方案使团队能够充分了解他们的系统,同时保持高质量的性能,从而建立信任。
人工智能驱动世界中可观察性的未来
从传统可观测性向 AI 可观测性的演变是不可避免的,也是必要的。在应对这一转变的过程中,开发人员和组织必须采用新的策略和工具,以跟上 GenAI 的变革性影响。通过投资透明度和问责制,我们可以充分利用 GenAI 的潜力,同时防范其复杂性,最终建立信任并加速创新。
对进步和监督的双重关注将确保可观察性仍然是人工智能时代强大、可靠的软件开发的支柱。
准备好应对挑战并抓住 AI 可观察性带来的机遇了吗?SmartBear 可帮助您驾驭这一不断变化的形势。详细了解 SmartBear Insight Hub,了解我们的解决方案如何帮助您的团队保持信任、确保质量并自信地采用 AI 驱动的系统。
来源:小轩科技观