chunk
stringlengths 691
7.02k
| source
stringlengths 40
108
|
---|---|
2023 年的平台工程:事半功倍
本文翻译自 Platform Engineering in 2023: Doing More with Less。
平台工程建立在最佳传统 DevOps 实践之上,并使用这些知识和经验来识别和实现新的效率。
问题的一些变体,“DevOps 死了吗? ”继续在云原生开发空间中被问到。答案是明确的“不”。随着平台工程的兴起,真正的问题和明确的答案是:DevOps 正在发生变化,但不会很快消失。 DevOps 角色的转变将成为推动开发人员体验的动力,帮助每个人事半功倍,随着各行各业的公司面临不确定的经济逆风,这正在成为指导原则。
开发者平台已经成为为开发者铺平道路的一种方式,他们的目标是提高生产力并减少认知负担,同时安全地快速交付软件。平台工程作为一门学科,尽管它仍然是未定义和模糊的——尽管随着更多打包的、商业选择的出现,这也开始发生变化——已经成为简化云原生开发旅程的工具。
虽然“平台工程”的定义仍有待解释,但其方向是全速前进,专注于塑造和改善开发者体验。实现这一目标的最有效方法之一是重新调整现有 DevOps 团队的工作重点,以少花钱多办事,成为类似于“PlatformOps”的东西来支持开发人员体验。
有两件事说明了平台工程和开发平台的出现、即将到来的主导地位和商业化。
首先,开发人员的挫败感是真实存在的。 Kubernetes 开发人员有理由对微服务和云原生开发的引入带来的一些新挑战感到沮丧。开发范式的彻底改变,加上突然期望开发人员应该能够“左移”并为他们的代码承担端到端的代码交付运行责任,造成了额外的、不受欢迎的认知负担。
添加大量例行的、重复性的任务,这些任务突然落到了开发人员的身上——在许多情况下,他们没有任何路线图或抽象集来确定要使用什么工具。或者如何获得对服务的可见性以获得并加快他们所需的反馈循环,所有这些都等于减慢了产品和功能的交付。 Garden 的一项开发人员生产力调查发现,开发人员每周平均花费 15 小时在非开发任务上。
这不仅会导致糟糕的开发人员体验,还会拖累生产力,从而影响底线。
其次,虽然一些开发人员享受试验和尝试新工具的自由(1%),但绝大多数开发人员(99%)希望并且可能需要明确的护栏和“黄金路径”来发布和运行他们的代码。大多数开发人员希望将他们的时间集中在编写代码上——而不是运行基础设施和试图找出为了提高生产力而应该正常工作的事情,例如维护工具、设置开发环境、自动化测试等。
推而广之,大多数企业都需要标准化、可复制性和一致性的安全性和稳定性。能够满足客户需求、控制成本和确保安全是首要任务,虽然本质上并不反创新,但关键业务要求会阻碍过多的创造力,并依赖于流程、自动化和使用相同标准和工具的每个人。
这就是 DevOps 继续挽救局面的地方。 DevOps,就像开发人员的工作一样,也在不断发展,但并没有消失。相反,DevOps 正在转向平台工程(又名 PlatformOps)支持模型,该模型扫清了道路,降低了开发人员体验的复杂性,并通过创建开发人员平台消除了开发人员日常工作中的摩擦。
平台工程建立在传统 DevOps 最佳实践的基础上,并利用这些知识和经验来识别和实现新的效率,并事半功倍。或者,正如最近一篇 New Stack 文章所阐述的那样,“你可以说平台工程采用了敏捷和 DevOps 的精神,并将其扩展到云原生世界的上下文中。”
鼓励开发人员对其软件进行全生命周期管理有一个好的开端,即让他们有更多的控制权和洞察力,从而能够提高速度和构建效率。但基础设施从来都不是,而且可能永远不会是开发人员的主要关注点——或者是开发人员释放能量的最有效场所。
然而,在云原生领域,开发人员需要更多地了解基础设施以及他们发布代码后会发生什么。如果出现问题,开发人员仍然需要对该代码负责并了解其依赖关系,以帮助排查和识别(并修复)下游问题。
但是组织和制定关于服务、环境、云本身的决策?这就要求一个学科的专家尝试在飞行中专门研究一些完全不同的学科,这既否定了提高速度和开发人员经验的最初想法,也否定了事半功倍的想法。有时,让非专家承担专家责任的想法,认为这样会减少资源使用,也就是事半功倍,会导致更多的问题。
中间立场和用更少的钱获得更多的途径是开发者平台的甜蜜点。从本质上讲,开发者平台可以:
为所需的工具和可见性提供开发人员自助服务,铺平道路,但又足够灵活以适应不同类型的开发人员。它既适用于完成入职培训的新开发人员,也适用于希望实现可靠、高效生产的有经验的开发人员。
-
使 DevOps/PlatformOps 能够支持和增强自助服务运动,增加他们在战略改进和项目上花费的时间和注意力,并减少救火时间。
-
允许更好地衡量性能、合规性和安全性,因为操作和资源数据集中在平台内。
-
缓解影响多个行业的许多公司的预算紧缩。正如我与 The New Stack 分享的那样,开发者平台是“确保您的本地开发环境设置良好,并且没有人坐在那里等待构建发生的一种方式。所有这一切都依赖于平台工程团队可以促进的快速反馈和透明度。”
-
如果开发者平台是为了提高效率和生产力,那么现实世界的可用性是关键。利益相关者(开发人员)必须想要使用该平台才能产生任何价值。必须创建开发人员平台以消除障碍并扫除开发人员和安全快速地交付软件之间的典型挑战。该平台必须解决开发人员在工作中需要知道、看到和经常做的事情,并定义无缝实现这一点所需的抽象。
反复谈论“开发者体验”可能听起来有点夸张,但如果它只是一种过去的趋势,它就不会成为一个永恒的主题。
许多开发人员、平台工程师、DevOps 和站点可靠性工程师都表达了一种观点,但 Arm 的 Cheryl Hung 说得最好,强调了为什么开发人员平台是必不可少的:“基础设施可能不可靠;它失败;这是不可预测的。与每次都以几乎相同的方式运行的软件相比,基础架构真的非常困难。”
如果开发人员体验——以及支持开发人员的工作——对于实现业务目标和明智地使用资源至关重要,那么 DevOps/PlatformOps 角色和平台工程同样有助于持续改进和保护开发人员体验。 | https://yylives.cc/2023/02/08/platform-engineering-in-2023-doing-more-with-less/ |
如何培育好的内部开发者平台体验
伦敦——Syntasso 的首席工程师 Abigail Bangser 在本周的 State of Open Con 上说,“应用程序开发人员希望快速行动,而运维工程师希望安全行动”,这就是 DevOps 模型的崛起之地。 DevOps 将发布所需的所有技能带入了一个团队,这减轻了开发人员的一些认知负担,他们不再需要——过多地——担心代码之上的安全性、支持和成本,因为他们团队中的运维工程师已经涵盖了。不可否认,DevOps 还提高了团队自主权和发布速度。
但是,Bangser 继续说道,这也导致了大型组织的大量重复工作,在这些组织中,DevOps 团队并没有 100% 专注于为最终用户创造价值,因为他们仍然关心基础架构、扩展和安全性。她强调,这没有太多不同,但并非不重要。这就是内部开发平台团队的用武之地,以减少云端繁重的认知负担,以便开发人员可以专注于开发,而运维人员可以专注于运营。而平台工程师专注于跨组织团队所需的非差异但重要的代码。
“所以你有一个团队来生产和操作工具来帮助其他团队为他们的最终用户生产和操作他们的软件应用程序,”Bangser 说,提供了平台工程的最新定义。
现在我们知道了平台工程团队应该做什么,让我们深入探讨如何培养良好的内部开发人员平台体验——这样您的客户同事才会真正想要使用它。
应用团队,也许应用团队是关于闪亮的,但平台团队是关于旧的可靠的。 “我发现人们专注于新的创新技术,但他们忘记了他们正在为哪些人开发它。” Nicki Watt 是 OpenCredo 分布式系统咨询公司的首席执行官和首席技术官,她帮助多家组织建立了内部开发人员平台,使她能够发现一些模式和反模式,她在 State of Open Con 群体中分享了这些模式和反模式。
她说,很多客户认为 Kubernetes 是一个平台,但“如果你想构建一个伟大的平台,它必须不仅仅是 Kubernetes 和围绕它的开源生态系统。”内部开发人员平台是人员、流程和技术的混合体——它不是简单的配方——也不是 Venn 图。这需要对您的内部开发人员社区产生同理心。
首先,Watt 提醒与会者,“你的听众比你想象的更加多样化。”尤其是随着组织的发展,平台工程师——他们自己大多是基础设施专家——往往不知道面前的技术栈是由多少不同水平的技能和经验构建。她警告说,这会导致低级别的 YAML 抽象,并且“有些社区要考虑的更多”。
主要是应用程序开发人员,但也不要忘记可能需要硬件或其他不同功能的数据科学家和机器学习工程师。她还观察到,在平台设计中需要考虑领导和治理社区——包括监管和金融。毕竟,他们希望通过报告了解他们是否以及如何从这项投资中获得回报。她说,平台工程之旅的一部分是让高管们了解它的价值。
然后,“根据特定的社区需求调整平台本身是好的,但还不够,” Watt 说,因为你不能单独解决技术问题,而且只解决一次。平台不是一劳永逸的——团队一直在变化和适应,她指出,治理和流程不可能一刀切。而且总会有不同类型的团队。
“一些人需要更多的创新自由,而另一些人则需要更多的指导,”她说。 “如果你想建立一个真正伟大的平台工程开发者体验,这需要你将其视为一个整体的社会技术挑战。”她对平台工程的定义归结为构建、维护和提供“为所有使用它的社区精心策划的平台体验”,这会影响所有不断发展的技术、社会和团队结构。
我们已经谈到了内部开发人员平台如何位于不同组织的不同级别——甚至在组织内的不同级别。Watt 说,良好的平台工程经验会建立明确的界限和责任,并回答这两个问题:平台能做什么?工程师需要做多少?否则你最终会陷入责备游戏,她解释道。
这些边界可能因利益相关者而异,但请记住记录这些差异,包括:
平台是做什么的?
-
平台团队负责什么?
-
应用程序团队负责什么?
-
当然,与任何开发人员的经验一样,文档是鼓励自助服务和自动化的重要组成部分,Watt 说,这是平台用户最想要的。 “这种自助服务使团队能够根据需要走得快或慢。”她强调说,目标是让团队独立于你而不是依赖于你——“我们的目标是在这里获得授权”,而不是平台工程师被内部工单弄得焦头烂额。
平台团队是黄金途径的建设者,她解释说,这条途径灵活且可发展,但主要是确保有秩序。她建议,在边界内促进自由,提前制定基本规则。这可以是单一云与多云设置,或者仅提供对标准堆栈的支持,而平台团队不提供对平台轨道之外的最新闪亮实验的支持。
Watt 说:“通过这样做,你可以让人们自由选择,但你不会让所有人自由竞争,这可能会在以后导致挑战。”选择仅限于生态系统。
API 不断成为开发人员以他们想要的方式使用内部平台的最简单方法。部分原因是,正如 Postman 的首席传播者 Kin Lane 所说,API 是一份合同,甚至可以作为您与 API 客户的服务水平协议。他在 2019 年首次写道:“API 合约是对数字接口功能的共同理解,允许应用程序在其上进行编程。”API 减轻并传达了人机界面的变化。可读的方式,并且应该提供一些可靠性和稳定性的保证,他继续说。
以 API 优先的方式构建您的内部平台,使其更易于自助服务。 Bangser 说,通过将该服务合同扩展到内部平台,API 变成:
可发现的产品目录
-
一个或多个用户界面选项
-
按需提供(虽然不一定是即时交付)
-
“什么都不做”脚本简介
-
这就是为什么她建议以有限的时间和投资来开始您的平台工程之旅,发布一个 API,开发人员可以使用该 API 访问将成为平台的内容。然后查看已经在运行的工具——Slack、Jira、Trello——并开始跟踪临时请求。什么是最频繁、最困难、最耗时的?您的应用程序团队的辛劳在哪里? Bangser 建议,寻找任何手动、非价值驱动且难以扩展的东西。并希望通过 API 优先开发来减少它。
“API 允许清晰的通信边界,”她说,“创建 API 提供了迭代的能力。”
Watt 进一步建议定义一个实际的内部平台合同,一个 la Amazon Web Services 的共享责任模型。澄清这些界限,比如如果组织希望平台团队处理所有安全检查,或者如果您的平台工程师只提供工具并且每个团队负责在自己的容器上运行扫描。她建议,只要有可能,就支持自动化和 API 驱动的交互,尤其是在入职和基础设施配置方面。
当然,文档是必不可少的,包括创建模板和参考实现,这进一步支持自助服务。
“你想让你的团队更接近平台,与平台互动。做到这一点的一个好方法是提供他们需要的文档和参考实施,”Watt 说。
不要忘记提供平台工程体验的专业服务方面。 Watt 说这可以包括研讨会、结对编程、嵌入 DevOps 团队,或者,正如我们从 CyberArk 了解到的那样,您可以为您的平台团队借用应用程序开发人员。随着您的平台团队规模的扩大,您可能需要自己的平台传播者来吸引您的同事客户。
不要忘记,如果您的内部平台是与您的应用程序团队签订的合同,那么可靠性很重要,并且必须从一开始就将持续测试纳入您的平台策略。Watt 说,获得内在弹性和可靠性的可靠方法是吃自己的狗粮并使用平台——“将对他人的限制强加给自己”,尤其是“启动基础设施的工具”。只要你这样做,你就会发现问题很快就会得到解决,”她说。如果那不可能,至少要将您的参考实现作为示例租户进行测试。
最后,平台工程要求你“调整你的想法——目标不仅仅是提供服务,而是成为一种服务并为你的社区服务,”Watt 说。 “我们不仅需要像开源一样开放,还需要开放我们与人互动的方式,并与团队开放我们需要什么才能取得成功。” | https://yylives.cc/2023/02/14/how-to-foster-a-good-internal-developer-platform-experience/ |
只想安静的学好 Kubernetes,怎么就开始弄平台工程了?
聊一下 IT 行业的发展和自己的一些体会。
作为一个经历复杂的中间件产品专家,综合能力给我的工作带来了很大的帮助。例如开发经验可以让我更好的和开发沟通,测试经验让我在诊断问题时可以考虑许多极端情况。但是这个工作本身其实还是比较单纯的,在 IBM 800 学习时,周围有不少同事就是没有研发经验的技术专家。他们大多有不错的教育背景,一毕业就学习软件产品,经过专业的训练,成为了一个优秀的产品专家。当时我的 Mentor 是一位非常专业的姐姐,每次接到问题都可以非常快速的反馈答案,而我很多时候都需要采取延迟策略,先接问题后反馈,因为确实不如她熟练。不过,当时我的 mentor 在一些与开发有关的复杂问题上也会找我讨论,我也觉得很开心。
可能是过去的软件本身就比较简单,亦或者是传统的软件厂商利用原厂优势刻意制造的一种“生态”,这种软件加服务的模式被业界所认可。原厂慢慢将更多的精力放到了产品,逐渐将利润较低的“服务”转给了其他合作伙伴。大量公司和人曾经也依然在这个生态中运转。
不过,随着业务压力越来越大,以及开源文化的发展,解决各类特定业务问题的开源中间件逐渐走向了舞台,这些软件将精力放在了解决问题上,与开发更加紧密,而且往往缺乏商业软件的包装,例如普遍缺乏精致的诊断工具和文档。也确实可能不需要这些,毕竟代码已经在这里了,有什么问题你不能自己解决?传统产品专家遇到了新挑战,或者说传统的软件服务的模式受到了挑战。此时,对一个产品最熟悉的专家可能是能改源代码的开发高手,或者是在自己的工作中有过大量实践的人。原先的产品专家失去了来自原厂的信息差优势,又缺乏足够多足够复杂的实践机会,所以想重新成为某个产品的专家,需要付出更大的努力。现实也是如此,做传统软件技术支持的专家,现在能比较好的转型到开源产品的,大多数本来就是开发出身,有比较强的动手能力。
说到 Kubernetes,问题更加复杂。首先,Kubernetes 可以看做是基础设施,所谓基础设施,就是一旦决定就不好改的东西,自然要考虑的更多,kubernetes 及其组件的复杂性,也决定了做出决策的困难性。第二,Kubernetes 是一个平台,但是很多人没有意识到这一点,还在按照传统的模式使用 Kubernetes,完全没有释放 Kubernetes 的能力。Kubernetes 已经改变了开发和运维的关系,工作方式必须有所改变,这里暂且放下,后面会详细介绍。
过去几年研发领域中的流行词一定会包括 DevOps 。每一种思想的产生,都不能离开其历史背景,显然 DevOps 也是如此。在软件开发早期阶段,或者许多初创公司,开发和运维并没有明确的界限。技术发展到了一定阶段,不管是有意还是无意,开发和运维变成了两个界限分明的工作。此时,随着交付的压力越来越大,界限分明的弊端显现,于是 DevOps 崛起,力图解决此问题。
如前所述,对于新兴的组织,采用 DevOps 的是没有任何负担的,因为根本还没有区分开发和运维。许多组织本身就是从一个开发者的应用开始的,所以 DevOps 天然的就是由开发主导的一种工作模式。
但对于已经建立起了开发和运维界限的企业,想要推行 DevOps ,无疑需要打破这种界限。但是,如康威定律所描述的,组织架构已经和开发运维架构匹配了,这种改变太难了。
所以,我们看到了许多怪异的现象。一方面,所有的人都在谈论 DevOps,新兴的企业自不必说,许多老套的企业也开始反复的提起 DevOps,可是实践中的 DevOps 支离破碎,也许个别项目获得了成功,但整个组织并没有发生特别大的变化。
几年之前,我还在 IBM ,也感受到了一种变化。一方面,我能体会到 IBM 有人早就看到了未来,当时学了很多内部课程,既有理论,也有实践,直到现在还很受用。但另一方面,不知道是哪方面的原因,我看不到客户的改变,或者说客户并不想和 IBM 一起改变,也可能是我当时的团队并不知道怎么改变,或者不想改变。
于是,我到了一家新兴的企业,期望有机会施展我所学到的东西。这家公司表面上是一个非常好的试验田。第一,这家公司利润不错,正处于成长期,所以有能力去尝试。第二,这家公司还是以开发主导的运维过程,与 DevOps 相同。第三,尽管存在所谓的 SRE 部门,但完全谈不上专业性,很被动,有很大的成长空间。虽然实际过程还有些波折,但我还是带领一个小团队,找到了一个能够紧密配合的研发团队,对应用进行了 Kubernetes 改造,设计了一个让开发很轻松的 CI/CD 过程,达到了 DevOps 的效果。
而此时,其他开发团队,也就是那些开发人员主导研发过程的团队,依然采用落后的模式。这种情况,很大程度上是因为这些开发人员对 Kubernetes 等产品认识的不足。当然,这种不足也是正常的,毕竟一个人的能力有限,并不是每个组织都有那种解决所有问题的天才程序员,DevOps 依然需要分工,需要专业人员。
许多组织还没来得及全面转向 DevOps ,结果就要回到老路吗?世界上有不少东西,会让人感到似曾相识,但其实已经发生了微妙的改变。经过 DevOps 洗礼过的运维开发者关系,发生了怎样的变化?
“人不能两次踏进同一条河流”,与上一次相比,许多东西都变了。交付速度的要求更高了,微服务让运维更复杂,Kubernetes 又简化了运维,CI/CD 将开发和运维串联了起来,我们应该有不一样的做法。
如前所述,在上家公司完成第一个项目的 DevOps 改造后,我发现了我们已经有了一个平台,还有许多最佳实践,很自然,我想将这种先进的生产力发扬光大。我们也发现,这个平台的“门槛”可能高了,每个开发者都需要了解一些 Kubernetes 的基本概念,需要了解 Jenkins ,也要对这个过程有清晰的认识,所以也才能在各个管理界面正确的切换。
因此,也许我们需要的是一个开发者平台。如果说以前开发和运维是通过工单来关联的,那么新时代将会是通过平台来沟通。这里借用一下 ThoughtWorks 的一张图:
这个图是按照 DevOps 的术语画的,但其实也有许多不同的表达方法。如果从传统运维改造的角度,可以认为是将原来的运维团队分成两部分,一部分构建上图所述”中心团队“,负责平台建设与赋能,而另一部分运维则转向业务和平台的结合,和不同的业务开发团队组合成各个”非中心团队“,帮助各个非中心团队用好平台,并能够反馈需求,提升平台的能力。
去年,怀着让自己的经验继续发挥的想法,我带领新公司完成了整个研发部门的云原生改造。又通过各种渠道了解了其他组织的情况,我的感受愈加的强烈,Kubernetes 不仅仅是一个技术问题。许多资源比我们丰富的团队,整个开发运维过程却没有我们顺畅。表面上看是因为没有释放 Kubernetes 和相关基础设施的能力,而更深层次的,则是组织架构与职责上,还没有调整到位。通过一些 DevOps 实践可以帮助我们理解这个过程,知道以后要怎么做,但这要付出许多成本。而实际上,平台工程这个想法本身就是许多 DevOps 实践的结果,如果说因为各种原因我们未能在 DevOps 尝试太多,那么直接借鉴其他组织的经验(平台工程)可能是一个好办法。相对来说,阻力会更小,组织结构依然分为开发与运维,只是开发与运维的界限有一些调整,沟通的方式有了一些变化。
欢迎大家关注我的网站 https://yylives.cc/,以及我们的公众号: | https://yylives.cc/2023/02/19/silent-engineer/ |
平台工程团队的架构和设计注意事项
本文翻译自 Architecture and Design Considerations for Platform Engineering Teams 。
究竟什么是平台?它是内部开发人员平台、开发人员自助服务门户还是仅仅是开发人员入职工具?
平台工程并不是一个新概念,在谷歌、亚马逊、Facebook、Netflix 和许多其他大公司中已经存在了很长时间。对于任何大型产品工程团队而言,平台是一组标准服务、框架和模式,最初由一个或多个团队开发供其使用,组织的其他团队可以利用这些服务、框架和模式。
工程组织的其余部分要么使用这些平台服务来开发其他应用程序或服务,要么用作内部工具。
产品团队过去常常在开放源、商业框架和平台服务,以及工具尚不可用时,自行构建许多这样的共享服务和工具。一个很好的例子就是 Google 的内部容器管理平台Borg,后来成为了 Kubernetes。
另一个很好的例子是 Kafka,它是 LinkedIn 最初为内部使用而构建的开源消息传递平台。同样,Amazon Web Services (AWS) 的 S3 和 EC2 最初是为内部使用而开发的,后来成为 AWS 公共云的核心基础。
由于这些平台、框架和工具作为开源或商业产品的可用性,平台团队不再需要为应用程序开发或自助服务云基础设施构建它们。
在云原生应用开发、部署和管理的背景下,平台到底是什么?它是内部开发者平台,开发人员自助门户,开发体验工具,还是简单的开发人员上手工具?除了开发人员之外,还有没有其他使用此平台的用户?
答案似乎对所有问题都是“是的”。我们现在提到的平台是所有这些的组合。由于大多数基础服务可以作为开源或商业产品,或二者兼而有之,因此平台工程团队的主要目标是使这些服务和工具变得易于发现、可自助使用,并通过API、UI、自助门户、Terraform等标准接口更易于使用。
例如,平台团队可以将集群或容器作为服务提供给他们的最终用户,这样每个业务单元或应用程序团队就不必配置或管理 Kubernetes 基础设施。另一个例子是应用部署作为服务,其中平台团队通过提供如 Argo CD 之类的工具作为服务来自动化应用程序部署过程。
为了最终取得成功,平台团队不仅要解决自己的开发人员用例,还要解决其他内部团队的用例。
在背后,平台团队可能会利用各种商业或开源框架,并增加一些自定义自动化功能。尽管开发人员是平台的主要内部用户,但 SRE、安全、产品支持和 FinOps 等其他团队也可以从平台中获益。
这样的一个平台可能拥有一个或多个用户界面,开发人员和其他内部用户可以轻松地利用这些服务以自助方式进行使用,而无需平台团队提供太多的帮助。
用户界面可能会因用户的不同而有所不同。例如,开发人员可以使用Backstage,一个开源框架,来构建内部开发门户,供用户自助访问全部开发资源,如目录、模板、部署管道、开发/测试环境等。团队可以使用 Terraform 进行基础设施管理和维护。
在用户界面的背后是平台的后端,它将所有组织的公共框架、基础设施、服务和工具集中在一起,并通过一个或多个用户界面向最终用户提供标准化服务。
组织的安全、治理和合规要求也被烘焙到后台,以在所有平台服务上应用,以便在整个组织中一致地执行这些要求。
最简单的形式中,平台可以看作是两部分(如下所示)—— 一个由一个或多个最终用户界面组成的前端和一个后端,它为前端提供必要的基础设施,服务和工具自动化,因此使最终用户能够以自助方式使用这些功能,以实现更高的生产力,加快产品开发进度和保持安全性和治理策略的一致性控制。
开发人员的前端可以是简单的本地门户,一个先进的后台部署,或者是一个商业内部开发平台(IDP)解决方案。同样,对于 SRE 团队来说,前端可以由平台团队开发的一组常用 Terraform 模块组成,用于预配和管理基础架构。
一些团队可能意味着将基础架构资源的声明性规范检入到 git 存储库中,并通过 GitOps 自动配置和管理基础架构资源。
后端实际上是基础设施自动化、应用服务、开发人员体验工具、SRE 工具和框架以及安全性和治理策略管理工具的集合。平台团队通常通过在这些基础架构、服务和工具之上添加额外的自动化层,将它们通过各种前端技术提供给用户。
例如,它可能是开发一个定制插件,允许开发人员从 Backstage 门户创建一个开发沙盒。同样,它可以是一个 Terraform 模块,用于创建带有所有必需插件和策略的 Kubernetes 集群,SRE/运维团队可以使用它来创建具有一致配置的集群。平台后端的各个主要组件如下所述:
每个应用程序团队在其应用程序开发中使用各种服务和工具,这些服务和工具不属于核心应用程序的一部分。范围可能从基本服务(如容器注册表、CI/CD 管道和 Vault 即 secret 管理服务)到高级服务(如消息传递、缓存、数据备份、灾难恢复等)。
平台团队将这些服务自动化,并通过一个简单的界面将它们提供给应用程序团队以进行载入/集成——减少应用程序团队的工作量和认知负担,并使他们能够更多地专注于核心应用程序开发以加速产品交付。
可观测性涉及从正在运行的系统收集数据,这些数据可用于故障排除和修复问题、分析资源使用情况以优化性能、收集容量规划指标或构建预警系统,以在任何潜在问题发生之前检测到它们等。
Logging、metrics 和 trace 是可观测性堆栈的基本组成部分。平台团队通常使用开源和/或商业解决方案,并可能实施额外的自动化以与各种应用程序无缝集成以进行数据收集;他们将其提供给开发人员和 SRE/Ops 团队进行分析和故障排除。
除了可观测性工具,SRE 和运营团队还使用许多其他工具和技术来管理和运营大型应用程序基础设施。这些可能包括舰队基础设施管理和运营的自动化、混沌工程、事件管理、警报管理、用于高级调试的自定义故障排除工具、自我修复等。
平台团队可以针对其中一些工具对开源和商业产品进行标准化,并将它们提供给 SRE 团队。同样,平台团队可以为舰队管理、高级调试和自我修复类型的用例开发自定义解决方案,因为这些用例可能非常特定于他们的基础设施和应用程序。
每当开发人员开始开发新服务或应用程序时,他们常常被迫从事重复性工作。这在拥有许多内部应用程序团队、产品团队和业务部门的大型组织中尤其普遍,这些团队之间通常很少共享代码和工具。这些重复性任务可能包括为已经存在的新服务创建样板代码模板、设置测试平台、启动开发/测试环境等。
除此之外,开发人员还需要了解他们所拥有的服务的相关信息——它使用了哪些资源、服务的健康程度、上次更改时间以及如何查看最新日志。平台团队可以通过利用 Backstage 或其他一些开发人员门户的统一开发人员门户以及自动化此类任务中涉及的可重复任务的能力来提供这些能力。
InfoSec 和安全团队为整个组织使用的所有组件、服务和基础设施定义安全框架和基线安全态势。这可能需要在所有系统中一致地执行所有安全策略和实践以满足安全基线态势,持续验证基线以检测任何偏差并在发生违规事件时快速补救。
安全基线策略包括单点登录和基于角色的访问控制、网络安全、用于在资源级别实施精细合规性和安全策略的开放策略代理 (OPA)、镜像漏洞扫描、运行时容器安全、CIS 基准测试等等。
平台团队需要在应用程序开发、部署和管理的每个阶段以及基础架构级别自动应用这些成本控制策略。
对于治理,成本控制政策对每个组织都是必不可少的。平台团队需要在应用程序开发、部署和管理的每个阶段以及基础架构级别自动应用这些成本控制策略。例如,这可能意味着为 Kubernetes 集群部署自动安装一组批准的系统附加组件和 OPA 策略、网络策略和成本控制策略。
平台工程没有放之四海而皆准的方法。它归结为每个组织的具体要求、优先事项以及他们希望通过平台实现的目标。该平台不仅仅是 IDP、Backstage 部署或自助服务门户。开发人员不一定是该平台的唯一用户。平台团队必须彻底了解他们所有的内部用户角色和他们的需求,并为平台开发合适的后端和用户界面,为所有内部用户提供最大价值 | https://yylives.cc/2023/02/25/architecture-and-design-considerations-for-platform-engineering-teams/ |
问答:团队拓扑如何支持平台工程
本文翻译自 Q&A: How Team Topologies Supports Platform Engineering。
Team Topologies 的联合创始人 Manuel Pais 讲述了如何以团队至上的心态将平台构建为产品。
今年以关于平台工程的大量对话拉开了序幕。在我接受的关于这个社会技术学科的每一次采访中,都提到了团队拓扑。
这种优化流程的软件开发和业务方法是由 Matthew Skelton 和 Manuel Pais 创建的。首先,他们合著了一本书,于 2019 年出版;然后他们将其扩展为一个组织,该组织经营一所学院来教授这种实践。
我们与 Pais 讨论了如何利用团队拓扑以及它如何与平台工程交互。因为篇幅和清晰度,对这次采访进行了编辑。
The New Stack:您能介绍一下自己并告诉我们团队拓扑是如何产生的吗?
Manuel Pais:我有 20 年的不同角色经验,从开发、测试、团队领导到咨询,尤其是围绕 DevOps 和持续交付。我在 2014 年遇到了 Matthew [Skelton],我们开始与世界各地的客户一起开展这些咨询业务,主要是从“我们想要采用 DevOps”或“我们想要持续交付之类的东西”开始。 ”
通常我们会发现问题在于团队互动或不互动的方式,团队的目的不明确,团队超负荷。尤其是我们现在所说的“平台团队”,它们通常有太多的利益相关者,因此他们分布很薄,无法为客户提供实际价值。
当我们与客户合作时,我们发现了不同的模式,有些很好,有些不太好。我们意识到这比 DevOps 更广泛。这就是“团队拓扑”出现的地方。
因此,这本书将工程原理应用于我们组织和建立团队的方式,我们建立了互动。
什么是“团队拓扑”?
“拓扑”是指系统的不同部分连接或排列的方式。因此,当我们谈论团队拓扑时,没有单一的正确拓扑或组织的理想操作模型。
但事实是,如果我们拥有工具,如果我们拥有构建模块来理解如何将它们组合在一起,我们如何以适合我们的组织、适合我们的目标和挑战的方式安排它们,那么我们可能比仅仅采用某种框架要好得多,因为这是我们被告知或认为的正确组织方式。
重要的是从我们今天所处的位置开始,找出其中的差距。我们是否需要在组织中建立一些新的能力?我们是否需要让团队更加拥有其产品,以便他们可以更快地前进、进行实验,并比今天更快地为客户改进产品?如果我们需要这些东西,我们应该建立哪些类型的团队和相互作用关系?
这可能会导致:我们需要做出一些改变。也许我们需要创建一些新的团队,比如赋能团队或平台团队,或者我们只需要改变职责或将其他人带入现有团队。
“我看到很多次:‘让我们重组为这种新的运营模式。’它基于这样的假设,即一切都会变得更好。很多时候情况并没有好转——或者没有我们预期的那么好。我们需要的是在连续的基础上采取更小的步骤。”
—Manuel Pais,团队拓扑
对我来说,团队拓扑学不是一个框架,也不是一个模型。对我来说,它只是一组关于组织思考方式的方法。然后是一些有用的团队类型和交互模式的模式,以及我们如何演进,如何以比过去更加连续的方式感知我们何时需要改变组织。
人们如何开始?它是作为一项自上而下的活动开始的,还是可以在逐个团队的基础上完成?
平台团队并不是新事物。我认为团队拓扑的不同之处在于我们不是孤立地谈论平台。这是一个团队网络,我们需要为组织和客户完成工作。
是的,通常情况下你需要某种形式的平台。它可能非常小,非常薄弱。在一个小公司中,你可能只有几个人来定义这个平台,以及如何更有效地完成某些事情。在较大的组织中,这可能是多个团队,甚至是多个平台来提供帮助。
为什么我们需要它们?它们为什么存在?在团队拓扑中,平台的首要目标应该是减少开发面向客户的服务或产品的流对齐团队的认知负荷。
我认为这就是为什么你在平台工程的背景下听到这么多关于团队拓扑的原因。我们将平台称为产品,因为它需要帮助他们的平台客户(即其他团队)更有效地开展工作,减少他们的认知负担,以及做某些事情需要付出的努力。
而在过去,我们只是孤立地谈论平台。我们会更多地考虑技术方面:我们应该建造什么?其他组织正在发生什么?那么我们需要构建相同的东西或者我们需要使用相同的新技术。是的,我们需要利用技术,但这不应该是起点。
您将软件组织称为“有机体”之类的团队网络。那是因为团队拓扑结构在不断变化吗?一个组织应该多久检查一次它的团队拓扑结构?
仍然很常见的是进行大规模的重组,有些公司每两三年就会进行一次重组,他们会调整人员并改变他们的角色。然后他们会惊讶地发现人们为什么没有参与感或疲劳不堪。这不是一种有效的方式。
相反,我们应该思考:在组织层面上,我可以做出最小的改变来获取反馈,并了解这个改变是否真正有帮助?我经常看到这种情况:“让我们对这个新的运营模式进行重组。”它基于这样的假设:这一切都会变得更好。但是很多时候它并没有变得更好——或者没有我们预期的那么好。
我们需要在持续的基础上采取更小的步骤。例如,我们需要在数据科学方面得到帮助,或者我们需要拥有更多的数据洞察力的团队。也许我们只有一个集中式的数据科学家团队,而他们已经超负荷了。这太慢了,他们成为了瓶颈。我们该怎么办呢?
也许我们可以从让这些数据科学家做一些使能工作开始。帮助其他团队学习基础知识,这样他们就可以自己做一些事情了。他们不会一天变成专家,但也许他们可以做一些基本的事情,不再依赖那个集中式的团队。这是一个非常小的变化。
理想情况下,你希望有一种文化,团队本身作为“传感器”来行动,“我们需要改变一些东西;这不起作用。也许我们有太多的依赖关系阻止了我们,或者我们没有我们需要的技能。”
我们需要看看康威定律和邓巴数来建立信任团队。管理层需要更好地理解存在的约束条件,塑造团队合作的方式,为团队提供文化和自主权,让他们决定需要进行的小改变。归根结底,要真正成功,需要顶层和底层方法的结合。
能源供应商比较网站 Uswitch 的团队拓扑案例研究,该网站包含多个平台团队以及站点可靠性工程 (SRE) 支持团队。 (来源:团队拓扑学院)
根据团队拓扑,告诉我们一些不同类型的团队。
流对齐团队是许多人称之为跨职能产品团队的团队。但是今天,对于我看到的大多数产品,你不能只有一个团队。这不够。因此,我们需要在多个层面识别价值流。
最近我与一家大型制药公司交流。在最高层面上,他们真正拥有两到四个主要的价值流 — 药物开发、诊断和其他 — 然后有成千上万的人在这三个价值流下工作。因此,我们需要将其细分:在这个大的价值流下,我们有哪些较小的流可能与不同类型的客户、不同的市场、不同的地区对齐?
然后你向下再走一层。在这些不同的价值流中,我们正在构建哪些产品?在产品中,有哪些不同的流程可能是不同的客户旅程或在产品中相对独立的不同功能集?
因此,组织内的这种分层价值流非常有用。每个流对齐的团队都对工作流拥有端到端的所有权,这可能是作为产品一部分的一项服务,也可能是作为产品一部分的一组功能。但是您希望该团队拥有该所有权。
关于 DevOps,这些团队拥有构建和运行的所有权。他们也有创意所有权。理想情况下,他们进行实验,从用户那里获取数据,并且了解我们下一步需要做什么。
然后我们讨论赋能团队,通常是围绕某个领域的专家组成的小团队——比如数据科学、安全或用户研究。
无论哪个领域需要专家知识,我们如何才能以有效的方式将这些知识带给流对齐的团队,从根本上减少学习曲线,让团队加快他们需要做的事情,使我们的应用程序或服务更安全的?我们如何获得我们需要的数据以及我们如何分析数据以获得我们需要的关于我们服务的见解?
因此,赋能团队将通过教学、指导、帮助他们快速学习来与流对齐团队一起做到这一点。
然后我们谈论平台团队。这是一个别名,对吧?从某种意义上说,平台团队最终成为一个流对齐的团队,拥有端到端的所有权,只是他们提供的服务是内部的,供组织中的其他团队使用,供内部客户使用。
最终在大中型组织中发生的事情是,该平台团队是一组团队,您可能在平台团队内部拥有多个流对齐的团队,与不同的服务对齐。也许一个团队正在从事监控服务,而其他团队正在从事某种[站点可靠性工程]相关服务等。
“这是我经常看到的反模式,平台变成了所有东西的桶,变得一团糟,缺乏所有权,缺乏重点和大量浪费,团队超负荷工作并致力于很多并不是真正的优先事项。”
—Manuel Pais,团队拓扑
在平台内部,您可能还拥有赋能团队。在初创公司或扩大规模时,该平台可能只是某种 Wiki 页面,一些人在那里收集了一些关于如何创建一些数据库的指导,如何以有效的方式做一些事情以供其他团队入门更快——减少认知负担的东西。
[随着规模的扩大],您希望每个平台,A,具有某种内部凝聚力,[和]B,提供一致的界面和供客户内部使用的方式。
例如,基础设施平台不同于数据服务平台,数据服务可能使用基础设施平台,并为组织中的其他团队提供数据服务。
您需要找到不同平台之间的界限,以便每个平台在内部具有凝聚力,共同研究如何以一致的方式为客户提供服务,而不会让他们感到困惑。但你也需要解耦平台,这实际上是两个不同的东西,它们应该是分开的,这样它们才能更独立地发展。
这也是我经常看到的一种反模式,平台变成了所有东西的桶,变得一团糟,缺乏所有权,缺乏重点和大量浪费,团队超负荷工作并致力于很多并不是真正的优先事项。
科技行业正处于技术裁员和招聘冻结的时期。您所描述的很多内容都暗示了招聘和培训的预算。您将如何调整团队拓扑以适应这些更贫乏的过渡和倦怠时期?
缺少的是团队至上的方法——将团队视为向客户交付价值的最小单位。意思是,我们不太关注个人,而是关注团队:什么可以帮助团队做出更好的决策,在工作中更加自主,并更快地为客户提供价值?
这通常与组织其他部分的工作方式不一致,例如培训预算。我们有这个在线学院,提供基于视频的培训。我们有一位工程总监,他们每个人每季度都有这样的培训预算——可能每季度 100 欧元。这位工程总监无法购买我们的课程,因为他们在本季度没有足够的预算。
我认为这是不该做什么的一个很好的例子。它非常关注个人,不支持团队应该决定的想法。从培训的角度来看,在这种情况下,您不需要增加培训预算,而是可以有一个桶,如果我们的团队中有 10 个人,那么我们就有 1,000 欧元,这是我们可以在每个季度使用的东西基础。
这就是为什么我们称之为团队优先方法。这也是关于团队中的个人将团队放在首位,然后思考 [关于] 什么对团队和组织有帮助。
将团队作为一个整体来考虑,然后裁员问题也很有趣,因为,是的,不幸的是,我们可能会有更小的团队,因为我们的人更少。但球队作为一个整体仍然存在,球队更有能力吸收裁员的影响。
但是你不需要拆散团队。你将团队作为一个整体,即使能力有所下降。团队拓扑结构在裁员期或经济低迷时期仍然有效。
你不想做的事情——我听过很多公司的例子——就是解雇拥有更多专业知识的人,可能是因为成本更高。当您在组织中拥有这些人时,他们非常有价值。
我们在团队拓扑中所说的是,您不希望它们成为瓶颈。您不想依赖专家来完成工作。您希望专家帮助他人。因此,让专家帮助其他团队学习我们在组织中存在差距的任何地方都会产生网络效应。不要放过专家,如果他们接受这种教导和帮助他人的想法,他们就会变得强大。
该平台是组织倾向于开始削减预算甚至裁员的另一个领域,因为他们认为,“哦,这是可以消耗的,因为它是内部产品的内部工作。”
但是你需要看整个局面:如果平台按照这种“平台即产品”的方法正确实现,那么潜在的收益可能比削减一些平台服务和团队所得到的收益要高得多,因为这些团队正在开发面向客户的产品。
团队拓扑如何定义团队?
我们将“团队”定义为通常由 5 到 9 个人组成的团队,他们一起工作 [一段时间] 并确定了他们喜欢的工作方式。他们相互理解,有一个与客户和组织目标一致的共同使命。
这是一个长寿或持久的团队。这是我们保持在一起的一个单位。这并不意味着它是静态的——当然,人们会离开,一些新人会加入——但团队作为一个整体保持稳定。
工作可能会发生变化,我们可能需要停止投资某些产品或某些工作流程,而我们正在投资其他一些工作流程。但我们将团队作为一个整体,因为这是很有价值的地方。该团队经历了一些人所说的 Tuchman 团队发展模型,团队需要时间真正了解彼此,相互信任,然后才能达到更高的绩效水平。
“您可以通过不同的方式将创新和新知识带入团队。这不仅仅是引进新人。你可以确保人们有时间、可用性和预算来学习新技能、进行培训或得到其他团队的帮助。”
—Manuel Pais,团队拓扑
这与组织创建团队来交付某些项目或变更,然后解散团队的情况不同。在这种情况下,您不拥有您构建的服务或能力的所有权,因为您只是移动人员。因此,这不是非常有效的,因为我们知道成功软件的大部分成本不在开发中,而是在维护和支持方面。
如果您有一个拥有该服务的团队,那可以确保它顺利运行,您可以整合新方法。你要确保你知道它一直在为客户提供价值。
这会阻碍创新吗?微软可访问性总监大卫·戴姆 (David Dame) 表示,一个在一起工作 18 个月或更长时间的团队已经形成了一种共同的思维方式,这会减少多样性和创新。
团队需要大约六个月到一年的时间才能真正凝聚起来,达到我们可以称他们为一个正在改进和执行的团队的程度。所以在 18 个月之后,这还很早,你绝对不想解散团队。
我很喜欢 Heidi Helfand 的著作《Dynamic Reteaming》,她谈到了一些这方面的模式和如何随着时间改变团队。团队的改变是不可避免的。但是如果你分散团队,那么你会失去团队拥有的所有知识。我们可以依靠团队所做的决策的文档,但是没有什么可以取代团队内部的那种讲故事的方式。
您可以通过不同的方式将创新和新知识带入团队。这不仅仅是引进新人。您可以确保人们有时间、可用性和预算来学习新技能、进行培训或获得其他团队的帮助。
这就是我们在团队拓扑中谈论的很多内容:我们如何以有效的方式将新功能构建到团队中?我们并不是说您可以在业余时间自学。我们应该在组织内部建立共享知识的机制。这就是您拥有支持团队和平台团队的地方。
关于“团队至上”的思想和价值交付的最小单位是团队的思想,这是否意味着在 DevOps 意义上,它们是完全自主的?这如何适应平台工程,他们应该能够自己构建和运行它?
平台的目标是帮助这些流程对齐的团队更有效地完成他们的工作。有些人谈到创建这些流程对齐的团队的“黄金路径”,意味着他们拥有自己的服务或产品,并负责监视、部署等。
“传统上,人们总是关注个人,围绕这位 10 倍工程师的一些被高估的想法。我们确实需要有专业知识的人,我们确实希望人们变得更好。但我认为这是对某种英雄文化和/或喧嚣文化的过度依赖。”
—Manuel Pais,团队拓扑
但是我们如何帮助他们减少做这些事情的认知负担呢?我们可以做到这一点的方法通常是使用平台,该平台提供非常好的监控服务、良好的可观测性服务、部署服务、持续集成和持续交付 pipelines ——所有这些类型的东西都可以作为基础设施平台的一部分提供,例如。
我们需要非常专注于作为平台团队或一组团队的目标,这是否能帮助流程对齐的团队更好更快地完成工作?因为平台提供服务的方式存在着一些真正的危险,比如这些服务不易于使用,或者不够可靠,或者令人困惑,或者不支持流程对齐的团队需要的用例。
如果这样,你并没有帮助他们,反而增加了他们的认知负荷。因为现在我们不得不使用那些不适合我们所需的服务,所以它实际上减缓了我们的速度,而不是帮助我们更快地前进。
将平台视为一种产品,了解您的用户 [并] 与他们交谈。对您在平台中提供的内容进行快速迭代,尽快从用户那里获得反馈。
我们需要优先考虑什么?什么更有价值?因为当你在一个平台上工作时,你可能会收到成千上万的请求,因为每个人都有自己的需求。所以你需要有我们要去哪里的产品愿景。对组织更广泛的价值是什么?我们不要构建只对一两个团队有帮助的东西。
所有这些都是产品思维。进行一些用户研究,与客户交流,了解他们如何使用您的服务。提供适当的文档作为自助服务,这样人们就可以使用平台而不依赖您作为平台团队来回答他们的请求。
为什么您认为培养团队至上的心态会有阻力?如果阻力来自团队之外会怎样?
传统上,一直关注个人,围绕这位 10 倍工程师的一些被高估的想法。我们确实需要有专业知识的人,我们确实希望人们变得更好。但我认为这是对某种英雄文化和/或喧嚣文化的过度依赖。
所有这些都导致组织大多数情况下都关注个人表现。从人力资源角度来看,他们关注的是个人,而从预算角度来看,它仍然非常基于项目或交付,并非基于团队,也不允许团队提供价值。
问题的一个重要部分是试图为我们认为客户需要的能力、产品或交付物进行预算。但是,由于我们周围的事物变化如此之快,三个月后,你会意识到它完全是错误的,但你已经为整整一年甚至多年进行了资金投入。 | https://yylives.cc/2023/03/01/how-team-topologies-supports-platform-engineering/ |
构建 Kubernetes 平台时需要考虑的 5 件事
本文翻译自 5 Things to Consider When Building a Kubernetes Platform 。
这篇文章旨在减少指导性,为评估建立在 Kubernetes 之上的抽象和平台提供一种方法,并帮助CTO办公室评估并为其软件工程团队做出明智的选择。
现代应用程序开发团队需要完全托管的自助服务平台。最近 Kubernetes 的转向中,已经看到许多团队争先恐后地在编排工具上构建平台。内部开发平台的需求由大型工程团队使用定制工具来满足非常具体的技术、流程和人员需求,例如 Uber 的 Devpod 和 Zalando 的 Sunrise。这种方法绝对值得效仿,但对于很多工程团队来说可能是遥不可及的,因为构建平台的成本很高,而且并不是所有软件团队的务实期望。
首席技术官的职责是平衡技术考虑和业务目标。你的责任是通过工程任务提供产品的竞争优势,但通常表现为业务结果的函数。一条通往生产环境的铺好的道路通常并不意味着它有明显的业务优势。
接下来是 CTO 办公室的优先事项清单。这个简短的清单是基于与多位经验丰富的技术领导和新手进行的讨论编制的。以下是一些假设:容器是事实上的应用程序交付机制。考虑使用 Kubernetes,或者已经在使用。云原生技术占据了他们的大部分流程。
1. 流畅的应用交付
应用程序平台必须能够为开发团队提供高速度。高速是两个因素的衍生物,即快速的应用程序交付和较短的开发周期。较短的开发周期来自开发人员认知负担的减少以及对 CI/CD 等现代实践的本地支持。应用程序平台必须支持以源代码开头的构建工作流。这些平台还必须能够支持在任何远程暂存实例上以可重复的方式部署应用程序。如果它能够整合团队现有的工作流程,例如触发测试和更新远程容器注册表,则可获得加分。
2. 多语言支持
一致性是应用平台的标志。该平台必须支持可重复和可复制的按需构建。提升平台体验的是跨所有语言和框架扩展同质体验的能力。无论团队使用何种语言,都保持相同的体验有助于支持当今能够使用任何编程语言编写服务的需求。如果平台支持本机构建过程以实现此目的,那么扩展和自定义此构建过程的能力是促成平台成功的关键因素。当软件工程团队有一些小众需求并且必须遵循复杂或极其具体的步骤来生成他们的容器镜像时,这个因素就会凸显出来。
除了少数例外,现代应用程序都是数据驱动的。平台必须协调应用程序和相关数据服务之间的连接和消费,以便为开发人员提供承诺的效率。容器的使用稍微复杂了一点,更不用说在 Kubernetes 上编排它们了。通过采用服务网格或服务代理策略来减轻这种负担是解决此问题并使他们的平台更具吸引力的常用方法。
3. 内置安全性
与传统工作负载相比,容器化环境的安全性非常不同。由于容器工作负载的短暂性质及其构建的架构(共享内核、权限、网络行为等),保护工作负载的传统方法将行不通。因此,为与容器和容器编排器一起工作而构建的平台必须考虑所有这些变化。一个基本的最佳实践是使用包含所有必需依赖项的已编译二进制文件。构建过程还应该包含一个指令,以去除应用程序运行不需要的所有组件。平台扩展的安全性还应该超越构建精益镜像。该平台必须有助于保持容器注册表的安全。定期扫描镜像被认为是一项重要的附加值。为所有镜像签名正迅速成为最佳实践。在编排部署的平台组件之间建立零信任架构对于改善工作负载的安全状况大有帮助。
4. 可调抽象
Kubernetes 的巨大成功及其操作的复杂性使得迫切需要帮助抽象它。进入门槛高,加上详尽的接口,需要抽象以帮助促进 Kubernetes 在整个组织中的采用。重申一下,并非所有团队都能“工作更多,让其他人做更少”。抽象 Kubernetes 原语以改善开发人员体验的能力是该平台目的的核心。
打造自以为是的平台有时会适得其反。开发人员体验是软件工程团队中技术需求和部落细微差别的脆弱组合。对于软件工程团队来说,能够定制一个平台来满足他们当前的需求并随着他们未来的工作流程而发展对于继续使用工具至关重要。一个平台既可以提供铺平道路,又可以灵活地满足软件工程团队的此类需求,则成功的可能性更高。
开源平台在这方面得分很高,尤其是具有模块化架构的平台,其中一个组件可以换成团队认为合适的其他组件。
5. 外在因素
技术能力范围之外的几个重要特性对平台的成功起着至关重要的作用。其中最重要的是存在于工具外围的社区力量。任何成功的开发者工具,都在开发者群体中拥有忠实的追随者。该工具的许多积极因素都源于这种认知盈余。采用者可以期待从业者的支持和指导,以及以去中心化方式传播的大量知识。
许可和问责制等商业方面有时会发挥作用,尤其是在需要严格合规的垂直领域。在这些情况下,附属于商业实体在成功采用这些平台方面发挥了作用。
一个好的起点是从市场上已有的适合您组织需求的众多解决方案之一开始。提供抽象以改善开发人员在 Kubernetes 上的体验的可用工具的一些示例是:
RedHat Openshift – 一个用于大规模构建、现代化和部署应用程序的统一平台。
-
Weaveworks GitOps – 一种免费的开源持续交付产品,可在任何 Kubernetes 中运行应用程序。
-
Gimlet – 一个基于 GitOps 的开发者平台,建立在事实上的标准之上。
-
Epinio – 安装到任何 Kubernetes 集群中,将您的应用程序从源代码带到部署。
-
Cloud Foundry Korifi – 云原生工作负载的 Cloud Foundry 体验。
-
D2IQ – 可以更轻松地大规模构建和运行 Kubernetes。
-
KubeFirst – 一个完全自动化的开源应用程序交付和基础设施管理 GitOps 平台。
-
Qovery – 一个可轻松复制您的基础设施并在 AWS 中创建类生产环境的平台。
-
Acorn – 一个简单的 Kubernetes 应用程序部署框架。
-
我们鼓励您在开始选择平台之前创建一份清单,列出对您和您的组织最重要的因素,以便在 Kubernetes 中铺平通往卓越生产的道路。这是示例清单的样子。
您对此类练习的评估有望让您更轻松地找到经过优化以满足工程团队需求的平台。 | https://yylives.cc/2023/03/04/5-things-to-consider-when-building-a-kubernetes-platform/ |
您的平台工程门户需要哪些特性?
翻译自 Which Features Does Your Platform Engineering Portal Need? 。
成功设计一个提供开发人员真正需要的门户平台是一项重大的工程壮举。这里有一些特性可以确保良好的开发体验。
平台工程已作为一种社会技术解决方案出现,以填补 DevOps 中缺失的许多空白。特别是,平台工程的主要好处是它如何大规模提高敏捷性和消除孤岛——尽管这一直是 DevOps 应该做的。
改善开发者体验是关键,因为这是提高敏捷性的主要途径。从实际角度来看,这意味着开发人员可以在优化的平台工程师支持下,通过提供自助服务功能和自动化基础设施操作,完成工作而无需承担与管理运营相关的繁琐任务。
这对于在云原生环境中工作特别有用,因此开发人员可以创建应用程序或完成拉取请求,而无需参与管理 Kubernetes 的巨大复杂性和其他相关任务,例如安全性。
Gartner 预计,到 2026 年,80% 的软件工程组织将建立平台团队,作为可重用服务、组件和应用程序交付工具的内部供应商。分析师预测,平台工程最终应该解决软件开发商和运营商之间合作的核心问题。
然而,平台工程的一个经常被忽视的关键要素仍然是实际的开发人员体验。这就是所谓的开发人员内部开发人员门户发挥作用的地方,作为工程平台之上的界面,将确保开发人员能够完成他们的工作,学习曲线类似于使用无代码替代方案。
有了正确的门户,开发人员必须首先花费一年多时间学习如何为 Kubernetes 创建应用程序和在 Kubernetes 上部署应用程序的日子已经一去不复返了。相反,开发人员几乎可以立即开始应用他们的才能来开发软件,以反映敏捷开发实践的节奏实现直接的业务目标。
事实上,在过去几年中,许多组织在尝试采用平台工程时都专注于平台本身。他们通常可能设计 CI/CD 管道、云基础设施、实施 TerraForm 并设计 Kubernetes 基础设施。
然而,在许多情况下,让开发人员可以访问该平台的尝试可能会在杂草中迷失方向。
Port 的联合创始人兼首席执行官 Zohar Einy 表示:“开发人员需要能够以他们能够理解的方式使用具有类似产品体验的不同平台元素,因为他们不需要了解幕后的一切。” ,它提供了一个内部开发人员门户,可为开发人员提供自助服务体验。
“但通过适当的平台工程到位,您可以减轻开发人员的认知负担并帮助他们获得所需的一切,”Einy 说。 “这可以通过作为内部开发人员门户的现成产品来完成。”
成功设计一个提供开发人员真正需要的门户平台是一项重大的工程壮举。虽然存在开源产品,但它们需要大量内部资源来设置和管理。
根据旅游服务提供商 Luxury Escapes 的首席软件架构师 Eran Stiller 的说法,领先的开源开发人员门户网站是 Backstage。由 Spotify 的工程师开发的 Backstage 具有高度可定制性和可扩展性,但开发人员需要大量时间才能采用它,而且“您还必须自己托管它,这需要额外的时间和精力,” Stiller 说。
最近几个月,Backstage 还披露了一些可能带来安全风险的重大漏洞。
另一方面,Stiller 说,商业产品通常在功能和它们提供的可扩展性方面受到限制。
“如果该产品能够满足您的需求,并且可以与您当前的技术堆栈和平台一起使用,那就太好了。但如果不这样做,它对你的好处可能是有限的,”他说。 “提供开箱即用的高水平定制和可扩展性的商业平台具有巨大的潜力,可以帮助那些不想或不能花时间调整和托管他们自己的 Backstage 实施的开发团队。”
根据 Einy 的说法,开发人员门户应提供的特性:
自助服务,为开发人员提供灵活性,同时保持政策合规性。 门户的自助服务功能应该超越微服务脚手架,以允许开发人员对软件目录中公开的任何资产进行配置和执行第 2 天操作。同时,门户网站应确保任何操作都符合政策,并允许对某些操作进行手动批准。
“Port 是第一个在开发人员自助服务方面采取这种雄心勃勃的方法,超越了脚手架,这也是 Backstage 方法,”Einy 说。 “作为对我们愿景的验证,我们看到市场上的其他参与者也开始采用这种方法。”
门户和平台的松散耦合。 通过这种方式,平台工程团队可以自由地根据他们的规范构建底层平台,并让开发人员通过开发人员门户以他们理解的方式使用平台数据。
平台工程团队可以选择他们想要的 CI/CD、IaC、软件架构和所有 DevOps 流程。
解耦允许对底层平台进行更改,同时保持开发人员体验的一致性。
“我们不会给你一个预制的房子,里面什么都有,然后告诉你如何进行 DevOps 或平台工程,”Einy 说。 “但是我们为您提供了无代码元素来创建您梦想中的房子。这是我们与其他解决方案之间的关键区别。”
能够集成组织自己的数据模型。 数据模型被带入软件目录,这是一个可见性层,用于组织内部开发和管理的基础设施和软件。
理想的软件目录应该显示软件开发生命周期周围的整个生态系统。这些包括CI/CD流程、开发者环境、管道、部署以及任何云服务,"在所有的[研发]部署中",Einy说,"从应用开发,甚至到数据、安全、产品和研究——基本上是每个与软件有关的团队"。
开发者门户内的工作流自动化支柱,允许机器与其交互。 在开发者门户内,机器可以使用 Port 的实时软件目录访问单个 API。这为机器提供了它们在工作流程中需要的上下文信息,例如失败的 CI 任务、自动终止资源或基于软件目录数据运行 CD 流程。
此外,机器可以订阅触发器,例如:资源生存时间达到零、Cron 作业计时器已用完,或者实体的创建、修改或删除。您可以使用订阅来触发自动化工作流或任务。
“这也是因为软件目录充当通用软件目录,而不仅仅是为开发人员抽象信息,”Einy 说。
此类门户功能“对于现代软件开发团队至关重要,”Stiller 说,并补充说,“对于那些大型团队或为多个部署单元(如微服务)构建软件的团队来说尤其如此。”
在后单体时代,软件设计要求变得更加复杂,“开发团队也随之成长,”Stiller 说。 “我们开始分发我们编写的软件。”
“这种分布导致了多个团队不断踩到对方脚趾的问题,因此我们转向面向服务的架构,后来转向微服务。问题在于,分布式架构比整体架构更难掌握和维护,从而带来了新的挑战。”
Stiller 说,在基于微服务的应用程序开发中,负责监督开发过程的架构师通常会面临理解系统工作原理的挑战,并提出以下问题:
应用程序部署在哪里?
-
当前运行的是哪个版本?
-
哪个服务依赖于哪个其他服务?
-
哪个服务是造成大多数客户错误的原因?
-
Stiller 说:“他们需要工具来帮助理解分布式的复杂性,并引导他们走向应该关注的地方。” “一个好的内部开发人员门户网站使我能够做到这一点,它允许我为构成我的应用程序的所有软件构建一个目录,无论是服务、部署管道、基础设施组件、云环境等。”
他说,一个好的门户允许架构师在他们的目录之上覆盖额外的信息,这些信息通常在其他系统中可用,但需要在一个位置连贯地组织起来。
“例如,我可以添加一层信息,根据我的可观测性平台中可用的数据说明每项服务的错误率,”Stiller 说。 “或者我可以添加一层信息,根据我的源代码控制系统或 CI/CD 管道中的信息显示特定横切依赖项的版本。”
添加信息后,架构师可以添加规则并创建仪表盘。
“例如,我可以根据服务的错误率排名,并对未满足[服务级别协议]的服务发出警报,我还可以对未将依赖项更新到最低要求版本的服务发出警报,” Stiller 说道。“能够这样做,并以一种易于访问的方式向团队中的所有开发人员展示所有这些信息是无价的。” | https://yylives.cc/2023/03/07/which-features-does-your-platform-engineering-portal-need/ |
通过平台工程设置 Kubernetes 标准
翻译自 Setting Kubernetes Standards with Platform Engineering 。
使用软件目录记分卡来设置 Kubernetes 质量和安全标准,从生产就绪到多个集群等等。
你不可能对所有事情都是专家。但缺乏专业知识不应该阻止你做任何事情,或者使你需要花费很长时间才能完成任务。相反,你只需要知道什么是标准,使用最佳实践并关注重要的数据即可。
这就是平台工程的意义所在。它为开发人员创建可重用的元素,例如重新部署镜像标签、更新自动缩放组以提供新包等等。这些功能可通过内部开发人员门户访问,记分卡在那里发挥着重要作用。
让我们以 Kubernetes 和开发人员为例。仅仅因为开发人员不是 Kubernetes 专家,就说他们应该学习 Kubernetes,或者在希望不破坏任何东西的情况下自由漫游,或者等待 DevOps 工单,这是不正确的。
我们需要允许开发人员拥有自主权,而这可以通过标准实现。标准可以使开发人员摆脱基础架构的复杂性,并允许开发人员在规定的范围内处理 Kubernetes。评分卡是表达这些标准的地方。
这不仅仅是关于良好的平台工程,也关乎良好的开发人员体验。开发人员应该得到精心设计的解决方案,这些方案应该像同样的开发人员为非技术人员提供的那些方案一样设计得精美。
我们已经写过关于内部开发人员门户和它们的软件目录如何抽象出 Kubernetes 复杂性的文章。内部开发人员门户会自动映射所有 Kubernetes 元数据,并通过“白名单”数据帮助开发人员立即了解什么是重要的。在本文中,我们将讨论内部开发人员门户如何使用记分卡将组织 Kubernetes 标准付诸实践。
评分卡与内部开发人员门户中的防护栏杆紧密相连,最终定义和推动了更好的工程质量标准。定义 K8s 的生产就绪或安全标准不仅有助于个人开发人员的改进,也有助于整体工程质量的提升。
未经过滤的原始 Kubernetes 数据对于开发人员来说通常太多了。有些数据不相关,有些可能相关但以对开发人员意义不大的方式呈现。内部开发人员门户包含软件目录,它们提取数据以便开发人员可以使用它。看看这个取自 Port 的单一服务视图。仅展示相关的数据。
让我们来看看 Kubernetes 的一些具体记分卡示例。
生产就绪记分卡评估现有 Kubernetes 对象(例如部署或集群)的生产就绪情况。这有助于确保它们满足生产环境中性能、可靠性和可用性所需的标准,并且可以识别任何必要的更改或升级以随着时间的推移保持或改进它们的就绪状态,从而降低停机风险并确保最终的高质量服务用户。
记分卡应针对以下类别:
对于容器,指标应该验证容器资源配置,如内存 request 和 limit ,并确保为所有容器配置了 liveness 探针和 readiness 探针。这些配置对于确保容器高效运行并能够快速响应可能出现的任何问题至关重要。
对于容器,指标应验证容器资源配置(例如内存请求和限制),并确保为所有容器配置活动和就绪探测器。这些配置对于确保容器高效运行并能够快速响应可能出现的任何问题至关重要。
-
对于命名空间,规则应确保工作负载不会部署在默认的 Kubernetes 命名空间中,这有助于防止因干扰 Kubernetes 系统组件而可能出现的潜在问题。
-
对于高可用性,指标应该要求最少副本数为两个,这对于确保在任何节点或 pod 发生故障时的冗余很重要。这种冗余对于确保工作负载的高可用性至关重要。
-
以下是 Kubernetes 生产就绪情况的记分卡示例。
总的来说,记分卡中反映的标准旨在确保 Kubernetes 工作负载已经生产就绪,并且可以以可靠、可扩展和高效的方式运行。记分卡系统是跟踪这些标准合规性并确保开发人员和运营团队都了解其工作负载的生产就绪状态的有用方法。您可以在此处查看此记分卡的现场演示版本。
安全记分卡标准旨在确保安全措施到位,通过验证 GitHub、DataDog 和 Terraform 等外部系统的 secret 不会暴露,从而保护敏感信息。容器部署合规性标准确保容器配置了只读根文件系统,不访问底层主机并且不提升权限,所有这些对于维护容器安全性都至关重要。标签和标签标准验证工作负载是否具有有效的标签值,以及所有容器镜像是否具有标签版本,这对于有效地组织和管理工作负载非常重要。
这是此类记分卡的示例:(此处为现场演示版)。
总的来说,这些规则有助于确保 Kubernetes 工作负载得到安全部署,并能够以可靠和安全的方式运行。
虽然开发人员可能不太关心资源使用情况,但 DevOps 非常关心。您无法很好地解决资源使用问题,资源使用问题必然会造成更多事件。记分卡既可以提醒开发人员注意此类问题,这样他们就可以自行解决这些问题并设定质量标准。
回到运行服务记分卡,我们可以看到它在资源使用方面处于青铜级别,这是由于 CPU 使用和内存问题。通过搜索软件目录或使用其报告之一,这立即成为一个行动项目。
这是用于评估 ArgoCD 工作流程和部署的生产就绪情况的记分卡。这些规则可确保工作流可靠且推出过程合规,并检查错误处理、配置管理、修订历史和扩展。
由于在所有集群中维护一致配置所涉及的复杂性,管理多个 Kubernetes 集群可能具有挑战性。由于多个集群分布在不同的区域和云中,因此很难确保所有集群的配置一致且正确,并且所有配置都是最新的。错误配置可能会导致服务中断和安全漏洞等问题,从而造成严重后果。
此外,大多数 Kubernetes 可视化工具不提供可以显示不同区域和云中的所有集群的统一仪表盘,这使得难以从单一面板监控整个 Kubernetes 环境的健康状况和性能。
在内部开发人员门户中,很容易创建一个仪表板来显示所有 Kubernetes 集群和关于它们的最重要数据。您可以在现场演示版中看到它的样子:
让我们在此数据之上创建一个生产就绪记分卡:
生产就绪计分卡用于根据一组标准评估 Kubernetes 集群的就绪情况。这些是可用于确保 Kubernetes 集群的稳定性、可用性和可靠性的不同规则。
“K8s 版本稳定”和“使用最新的 K8s 版本”标准侧重于确保使用的 Kubernetes 版本稳定且最新。例如,如果组织中有将集群从 Azure 迁移到 AWS 的倡议,“Cloud provider is not Azure”规则可以帮助跟踪和推动这一倡议,“Using Argo CD”规则促进自动化和标准化部署。
“为所有 Pod 配置的 readiness 和 liveness ”和“为所有 Pod 配置的 CPU 和内存 limit ”有助于确保工作负载健康且不超过可用资源。最后,“集群节点数至少为三个”确保了工作负载的冗余和高可用性。应用这些标准可以帮助组织维护稳定、安全和可扩展的 Kubernetes 环境。
以下是关注 Kubernetes 环境的监控和可见性的其他标准。 “有 K8s 仪表盘吗?”标准检查是否安装了 Kubernetes 仪表盘,它提供了对 Kubernetes 环境的基本监控和可见性。 “有普罗米修斯吗?” standard 检查 Prometheus 是否被用于监控 Kubernetes 指标和基于这些指标的警报,这有助于快速检测和响应问题。
“有Grafana吗?”标准检查 Grafana 是否用于更高级的监控和指标可视化,这有助于监控 Kubernetes 环境的性能和健康状况。通过应用这些标准,组织可以确保其 Kubernetes 环境得到有效监控和维护,以满足其性能和可用性要求。
为不同的实体设置不同的标准很重要,这反映了软件开发生命周期的不同阶段。
例如,在生产环境中,确保 Kubernetes 集群在最新稳定版本的 Kubernetes 上运行并且有足够的节点来支持工作负载可能至关重要。可能还需要确保所有 pod 都配置了适当的资源限制以防止性能问题。此外,可能需要 Prometheus 和 Grafana 等监控工具来提供高级监控和可视化功能。
另一方面,在暂存环境中,重点可能是在将新功能或更改部署到生产环境之前对其进行测试和验证。在这种情况下,标准可能更侧重于确保正确配置 Kubernetes 环境,并使用 Argo CD 等工具实现自动化和标准化部署。
通过为不同的实体定义不同的记分卡,组织可以针对不同的环境定制他们的规则和检查,确保他们的 Kubernetes 环境针对每个环境的特定需求进行了优化。这有助于提高开发和部署过程的效率,同时确保 Kubernetes 环境稳定、安全和可靠。
记分卡做三件事。他们以适合开发人员的方式提取 K8s 数据,确保开发人员遵循 Kubernetes 最佳实践和护栏,以最大限度地提高应用程序可靠性并帮助 DevOps 推动计划。他们提供的工具可帮助开发人员拥有安全性、可靠性和云支出。当工作流自动针对记分卡运行以确定构建是否应该失败时,它们也很有价值。您可以在 Port 的现场演示中亲自观看,或在此处注册免费版本的 Port。 | https://yylives.cc/2023/03/11/setting-kubernetes-standards-with-platform-engineering/ |
使用通用软件目录简化 CI/CD
翻译自 Simplify CI/CD with a General-Purpose Software Catalog 。
通过开发人员门户网站,包含适用于开发人员和机器的单一真实数据来源,推动平台工程计划。
为了自动化部署流程,CI/CD 需要上下文:部署配置、构建配置、工件、版本号、依赖项、环境变量、测试结果等。这些数据不在一个地方 - 通常分散在多个系统和工具中。
例如,部署配置可能存储在单独的 YAML 文件中,环境变量可能在脚本或部署清单中定义,版本号可能手动在电子表格中跟踪。
太多的真实来源会导致几个问题,包括复杂性增加、元数据不一致、更新数据困难,最重要的是无法应用自动化。软件目录是内部开发人员门户的核心,可以提供解决方案。
第一步是创建一个包含正确数据的软件目录。它应该是一个通用的软件目录,允许添加具有不同属性和关系的数据类型,提供灵活性,使每个人都能将自己的数据模型带入目录中。
内部开发人员门户网站是平台工程的核心。它向开发人员展示作为平台的一部分构建的自助服务操作以及软件目录。
这就是有趣的地方。从开发人员体验的角度来看,可以将软件目录解释为经过审查、经过白名单处理的数据存储,以帮助开发人员克服认知负荷(例如,请参见如何向开发人员呈现 K8s 数据)。
但这并不是全部。实际上,使用软件目录进行 CI/CD 非常强大。软件目录可以存储有关构建、环境、云和更多的数据。这种软件目录可以极大地有助于为 CI/CD 上下文创建单一真实数据来源。
与我们交谈的平台工程团队正在积极实现这些好处,尤其是在 CI/CD 元数据方面。他们将软件目录用作 CI/CD 的单一真实来源,并将软件目录中的 CI/CD 数据用作其自动化工作流程的一部分。
通过在软件目录中包含有关集群、环境、云区域和供应商的相关数据,CI/CD 过程可以更加智能和自动化,从而带来更好的工程。它将 CI/CD 与其所需的上下文数据分离,分离控件并更容易排除故障和损坏的 pipelines 。
通过开发人员门户,这些功能还有助于平台工程团队为开发人员提供更好的部署过程可见性,因为他们可以实时查看部署状态和发生的任何错误。
设置软件目录后,当 CI/CD 数据还用于版本控制和安全性时,可以进一步发挥 CI/CD 数据单一真实来源的优势,
跟踪对元数据和配置文件所做的所有更改可以提高元数据随时间变化的可追溯性。这对于审计目的和理解部署过程的演变很有用。
此外,它还可以促进更好的协作(通过版本和变更跟踪)、更快地解决问题以及快速恢复到先前版本和提高合规性的能力。当 CI/CD 数据碎片化时——想想 git 中分散的版本历史——很难做到这一点,但使用软件目录就容易多了。
软件目录通常确保只有授权用户才能访问和修改元数据,从而降低未经授权访问、数据泄露和其他安全事件的风险。例如,配置错误会导致 S3 存储桶公开或将带有个人身份信息的服务暴露给互联网。
软件目录本质上是一个集中式数据库,存储与 CI/CD 过程相关的所有元数据。可以通过 REST API 访问和修改它,这使 CI/CD 管道能够以编程方式与元数据存储进行交互。数据类型、属性和关系可以在需要时轻松添加,因为不同的组织以不同的方式执行 DevOps。
应该访问和存储哪些数据?这取决于我们所说的数据模型,即管道中重要的属性和类别。例如:
您可以按不同类别组织目录,每个类别都包含与 CI/CD 过程的特定方面相关的元数据。例如,可能有一个用于部署配置的类别、一个用于环境变量的类别和一个用于版本控制的类别。
-
在每个类别中,会有不同的元数据项或键。例如,在部署配置类别中,可能有部署目标、部署策略和部署版本的元数据项。
-
CI/CD 管道可以使用 REST API 与元数据存储交互,指定它们要访问的类别和元数据项。例如,要检索特定应用程序的部署目标,CI/CD 管道可能会向部署配置类别发送 GET 请求,指定部署目标的元数据项。
图数据库可用于软件目录。由于软件目录中的不同实体具有复杂的关系(例如,服务部署在云帐户中 K8s 集群的命名空间上)并且这些关系很重要,因此您需要能够本地查询它们。图数据库可以让您做到这一点。这在 CI/CD 管道的上下文中特别有用,开发人员、DevOps 和机器需要能够快速访问有关系统不同部分如何相关的信息。
或者假设我们想要识别使用特定镜像版本的所有服务。如果没有元数据存储,您将需要手动搜索各种服务的配置和文档以找到匹配的。但是有了图数据库,我们可以为每个服务创建节点,并将它们链接到它们使用的图像版本。这使我们能够快速查询图以找到使用所需镜像版本的所有服务。我们可以从查询镜像版本节点开始,然后遍历它与服务节点的关系。我们甚至可以向节点添加其他信息,例如服务运行的环境、上次更新的日期以及任何相关的警报或问题。这提供了整个系统的全面视图,使我们能够轻松跟踪和管理我们的服务。
-
例如,假设我们要识别在特定区域中运行的所有服务(例如,如果您正在运营一个大型云平台,为不同区域的客户提供服务)。如果没有图形数据库,我们将需要跨不同的数据源执行多个查询并尝试拼凑信息。但是,使用图形数据库,我们可以在一次查询中完成。
-
这种本机查询复杂关系的能力对于使开发人员和机器能够更有效地执行影响分析、管理配置、运行连续测试和管理发布至关重要。这不仅简化了 CI/CD 流程,还有助于确保系统的整体稳定性和可靠性。
现在我们需要考虑如何轻松地将数据放入软件目录中。轻松地将数据提取到软件目录中需要 API 优先的方法。这包括来自云提供商、Kubernetes(用于集群数据)、git 提供商、基础架构即代码 (IaC) 工具(如 Terraform 或 Crossplane 等)的数据。
API 优先的方法还可以轻松构建与其他工具和系统的集成,例如创建包含有关基础架构和应用程序信息的仪表板。这可以帮助您构建更全面、更有用的元数据存储,提供您的基础架构和应用程序的整体视图。
平台工程和用作开发人员核心界面的内部开发人员门户的兴起也提供了创建软件目录的机会,该目录不仅对开发人员有用。具有 CI/CD 元数据的软件目录可以创建单一事实来源、解决版本和安全问题,并允许部署过程自动化等。要查看通用软件目录可以包含什么,请在此处转到 Port 的现场演示。 | https://yylives.cc/2023/03/17/simplify-ci-cd-with-a-general-purpose-software-catalog/ |
将成本效率纳入平台工程以实现增长和盈利能力
翻译 Factor Cost Efficiency into Platform Engineering for Growth, Profitability 。
在平台工程中加入对成本效益的额外关注可以帮助企业度过困难的财务时期,并让它们飞速发展。
这篇文章是 4 月 18 日至 21 日在阿姆斯特丹举行的 KubeCon + CloudNativeCon Europe 2023 预览系列文章之一。加入我们,了解有关云原生应用程序和开源软件的变革性质的更多信息。
平台工程是一种战略性概念,工程师使用单个窗口来简化所有流程、工具和平台。它优化了安全性、 DevOps 、 CloudOps 等方面,使工程师能够更有效地工作,而不需要投入过多的时间和精力。
这种简化消除了在复杂的微服务和云原生环境中工作时产生的大量任务和责任。随着建立应用程序所需的认知负荷减少,更多的产品和服务可以更快地进入市场,支持 CI/CD 实践、自动化、安全和治理。
尽管平台工程如今备受关注,但当前的范式中缺少一个方面,它专注于平衡开发人员时间与应用程序稳定性和性能。这个缺失的组成部分是成本效率,而在当今的经济环境中,这应该是前沿问题。
平台工程应该实现流畅的集成,以实现成本效率的云提供和自动扩展。这样,企业就可以充分获得优化的开发人员时间、性能和成本效益的全部好处。
DevOps 团队需要跟踪和维护大量技术、基础架构和依赖项。他们常常被无穷无尽的任务和责任压得喘不过气来,使他们忘记了关键的技术依赖性。
平台工程旨在通过创建一个统一的 SaaS 平台来解决这个问题,从而更好地帮助团队构建、部署和运行软件应用。所有工具和依赖项都统一且流程化地集成在一个地方,团队不再需要担心工具或基础架构,可以专注于构建服务,而不是打开工单或等待请求。
平台工程在工程师圈子里正在广泛推广,但将成本效益整合到这一运动中将更有助于组织,确保盈利能力,或至少在开发过程中嵌入成本意识。
平台工程的概念有许多方法可以用来控制成本,许多组织可能会开发自己个性化的系统,但有一些简单的开始方式。
当工程师构建、编码和交付新应用时,成本通常是他们最不关心的事情。但作为一个组织,需要有人(或某个系统)来确保产品服务的成本得到控制。
这就是自动化的作用。想象一下,如果你可以将工程师已经在使用的平台嵌入自动通知和警报,预测在产生成本之前的成本。例如,如果一个工程师即将启动一个超出预算的云资源,他们将收到有关预计成本和审批提示的通知。
这将提供一个自动的屏障,防止工程师超出预算。此外,它还会让工程团队更加关注和负责他们所产生的成本,鼓励他们提出更具成本效益的发布服务方法。
类似的真实世界例子是 InfraCost,它为 Terraform 拉取请求提供自动云成本估算。当与自动化相结合时,这个工具可以作为一个成本门槛,配备一个审批链,确保成本得到管理和控制。
另一个可以将自动化成本优化解决方案整合到平台工程中的领域是持续扩展云资源以适应业务需求。
今天,云资源过度预配给公司造成了数百万的成本。但解决这个问题是复杂的。限制资源可能导致服务崩溃,而过度预配则昂贵、浪费和效率低下。解决方案是自动扩展云资源,以便以最具成本效益的价格持续满足应用程序需求。
在平台工程角度下,这是什么样子?将这种能力构建到平台中,并将其作为自动化功能提供给开发人员,使他们不再需要进一步考虑它。
一个应用案例是容器,工程师往往难以在复杂和不可预测的环境中分配所需的正确 CPU 和 RAM 。为了确保应用程序的稳定性和性能,他们通常会过度预配这些资源,这不必要地增加了成本。据 Datadog 的数据显示,高达 49% 的容器使用的 CPU 不到请求的 30% ,内存利用率也类似。
将这种自动扩展技术集成到开发人员的流程中可以有效地降低成本,无需任何人工干预。这样的自动资源分配工具将检测需求水平,然后将 CPU 和 RAM 等资源扩展到能够使应用程序在最佳稳定性和性能下运行的水平。在幕后,组织将大幅削减成本,并显著减轻 DevOps 工程师的手动工作和认知负荷。
作为 DevOps 和软件工程领域的一种新方法,平台工程因其精简和简化开发者操作的愿景而越来越受欢迎。
将其提升到一个更高的层次,并注入更多的成本效益关注,可以帮助企业度过更困难的财务时期,并在经济形势最终好转时使它们进入增长的飞轮。
平台工程的概念中有许多未被开发的潜力,技术精湛的业务领导者应该考虑如何利用它来开发新的方法,以支持应用程序的稳定性、性能、安全性和成本效益。经济衰退从来不是容易的,但它也为领导者提供了一个很好的机会,去减少低效率,简化流程,从而使您的业务在未来多年中蓬勃发展。 | https://yylives.cc/2023/03/30/factor-cost-efficiency-into-platform-engineering-for-growth-profitability/ |
为什么成功的平台工程团队需要产品经理
翻译自 Why Successful Platform Engineering Teams Need a Product Manager 。
产品方法认识到该平台是一个不断发展的产品,可以响应用户的反馈以适应他们的持续需求。
我们都知道平台工程并不是什么新鲜事物。最近几年,引起关注的是正式的方法和团队结构.在每一个关键时刻,尝试这些新方法的组织都会听到一个普遍的说法:“这不是一个项目——它是一个产品。”
为了成功地进行平台工程,我认为必须有一个产品经理,并且我们应该继续强调“产品”这一点。以下是原因。
大多数组织都以项目思维方式处理工具链和工作流,这意味着他们希望实现既定的最终目标,可能需要一个临时团队。相反,产品方法认识到该平台是一个不断发展的产品,它会响应客户的反馈以调整平台以满足他们持续的需求。
平台工程需要明确的目标才能运作。它是一项持续的职能,而不是一个终极状态。这种明确性来自于那些以与产品经理处理其产品相同的方式处理平台的人。
需要一定的奉献精神和技能来宣传平台,为平台辩护并告知利益相关者和用户如何以及为什么变化(以及为什么它们重要以及提供给最终用户的价值)。平台产品管理远不止是一个“检查时间表并勾选框”的方法。
产品管理有助于让平台工程专注于解决用户需求。它有助于通过创建和支持一个整个组织都愿意使用的平台来减少浪费并加快新技术的交付速度。这是关键。
在平台工程中,你不能仅仅构建它然后期望他们会使用它——你必须构建一些能够让最终用户的生活变得更加简单,并让他们想要改变自己的行为的东西。
可以看到最清晰的对比之一是操作系统(OS)构建和配置平台。在那里, Windows 或 Linux 团队将提供一个系统来构建和配置虚拟机,但目的只是直接提供其自身团队满足其编写的构建标准和方法所需的功能。这将无法优先考虑客户驱动的需求,例如新的操作系统发布、自助 API 和与其他工具的集成,因为这些交付成果不会直接影响操作系统构建团队本身,但它们是平台工程的核心。
平台工程产品经理负责监测平台的运行状况,与用户沟通以避免和解决问题,并确保平台路线图是最新的并以用户实际可用的方式呈现给消费者。
产品经理在平台工程中的确切角色可能会根据他们支持的平台进行调整,但始终专注于将平台视为一个产品,以易用性为中心。
在《DevOps 2023年状况报告》中,调查显示只有约三分之一的平台团队配备了产品经理。当然,投资于产品经理可能意味着招聘拥有这种技能的人才,但现有的员工也是平台产品管理的理想人选。他们已经了解您组织的文化和流程,这会使沟通更加顺畅,并立即建立起信任。
无论如何,为您的平台投资于产品经理意味着不仅要让他们进门。产品管理可以增强那些选择从事这项工作的人的职业生涯——这不是短期决策或兼职工作。支持他们包括培训和给予他们成长的时间和空间,成为用户反馈的可信赖传递者。
要了解更多关于平台工程的信息,请访问 Puppet 网站上的《DevOps报告,平台工程版》。 | https://yylives.cc/2023/03/30/why-successful-platform-engineering-teams-need-a-product-manager/ |
平台团队的 Schema 变更管理
翻译自 Schema change management for platform teams 。
几个月前,The New Stack 上的一篇文章在我们的行业中引起了很大的波澜,声称“DevOps已死”,将被平台工程所取代。我有幸与阿里加(Ariga)顾问委员会成员之一、HashiCorp联合创始人兼首席技术官 Armon Dadgar 讨论了这个话题。
Armon 回忆说, DevOps 运动向软件行业提出了一个大胆的愿景:“如果我们能够将 Dev 和 Ops 功能融合到同一个人身上,形成一个超级工程师,早餐写后端应用程序,午餐配置构建系统和 CI 管道,晚餐解决数据库生产问题,则最终实现全面拥有权和责任。”
然而,在实践中事情更为复杂: “除了少数几家能够雇佣并留住他们的公司外,这些人实际上并不存在。” 这种认识催生了平台工程。 “我们需要开发人员能够自助式地负责其应用程序, 但是现代云原生架构的复杂性过于庞大。为了高效运作, 组织需要抽象化这些东西。”
我们看到随着对此复杂性反应不断增强, 平台团队正在各地创建。这些团队的任务是维护内部开发平台,作为管理云原生架构中应用程序复杂性的灵活抽象化。
一个优秀的平台团队会将其开发者平台视为一种产品,并不断寻找可衡量的方法来提高所服务的工程组织的效率。
通常可以通过以下方式之一实现:
解决技术瓶颈或自动化手动工作,使缓慢的事情变得快速。
-
提供更简单的检索信息或提供声明性工作流程,使难做的事情变得容易。
-
防止CI期间人为错误,从而使风险较大的事情更加安全。
-
平台团队可以创造严格的技术杠杆的一个被忽视的领域是提供强大的 Schema 变更管理方案。 Schema 变更管理指支持应用程序数据模型和存储在数据库中方式演变的工具和流程集合。
过去,大多数应用程序由单个企业数据库组成,通常由企业供应商支持,服务于整体后端。这些是采用瀑布方法开发并由专业训练有素的 DBA 进行管理。今天,应用程序以微服务爆炸为特征。每个微服务都由自己的数据库(有时是多个数据库)支持,并由多个自治团队开发和维护,在处理其数据库时具有不同(甚至非常少)操作知识。
换句话说,尽管作为任何架构关键组件之一,但备份数据库运营方面在许多情况下都是事后考虑。组织可以轻易地花费数十万美元来确保开发人员能够访问可观测性数据,但当涉及到管理 schema 变更时,则期望开发人员了解他们所使用团队所使用数据库的所有复杂性。
经过对数十家公司的工程师进行采访,我们发现,在没有深思熟虑的 schema 变更管理策略的组织中,一些严重问题会反复出现:
数据库 schema 不兼容变更会打破数据库和应用程序后端之间的契约,导致停机时间。
-
数据库 schema 下游使用者(例如消费 CDC 日志的数据工程团队)经常感到惊讶。
-
表意外地被锁定以进行写入操作,导致应用程序停机 - 有时长达几个小时或几天。
-
开发人员使用根凭据连接到数据库以应用变更或解决问题。
-
部署因在生产数据上才发现的约束违规而失败了一半。
-
发生事故和停机是由于许多工程师不知道数据库行为。
-
简单重构成为需要高级工程领导计划和仔细执行的复杂项目,使其频率降低,并增加技术债务。
-
对数据库架构更改的挫败感(和恐惧)促进了反模式,例如将架构管理推向应用程序层有效地使用 SQL 数据库作为 NoSQL 存储等。
-
还有很多其他问题。
-
大多数现有的 schema 管理工具(通常称为 schema 迁移工具)是在一个非常不同的时代创建的。在 DevOps 运动开始之初,将所有 schema 变更描述为提交到源代码控制并由已知哪些已应用了这些变更的工具自动应用文件的想法是革命性的。
然而,正如我们上面提到过的,与这些工具构思时相比,今天软件构建方式发生了很大变化:
我们的开发方式 - 微服务带来了数据库数量和组织使用存储技术多样性方面爆炸般增长,使得许多组织无法拥有专业 DBA 编写或审查数据库 schema 变更。团队需要能够自主和自给自足以便持续取得进展。
-
我们的运作方式 - 过去可以接受将应用程序停机进行维护-您银行公司最后一名员工离开办公室和第二天第一位员工进入之间 DBA 有几个小时时间可以关闭系统、升级它并重新启动它。管理 24/7 提供流量的始终在线系统是不同寻常的。
-
谁来操作 - 在大多数情况下,团队会操作他们自己的数据库,在这种情况下负责该系统值班人员对于数据库运营方面通常只有非常基本的知识。
-
因此,现代化的 schema 变更管理解决方案可以解决以下问题:
计划更改 - 当今的工具期望所有技术背景和专业水平的开发人员能够规划正确、安全和高效的数据库变更。鉴于开发人员必须处理各种技术范畴,这可能并不总是可行。因此,平台可以为开发人员提供自动化、声明性工作流程来规划变更(“用于数据库的 terraform plan ”)。理想情况下,该工作流应支持任何 ORM 或框架开发人员用于构建应用程序。
-
验证安全性 - 一旦变更离开了开发者的工作站并提交为 merge request ,则成为团队审查和批准变更正确性和安全性负责。现有工具在这个领域没有提供任何支持,完全依靠手动审核。平台可以为团队提供自动验证变更(“ schema 变更 CI ”),以在它们到达生产之前检测到风险变化。
-
部署修改 - 现有工具主要集中在描述和应用目标数据库上所需机制上。这是一个很好的开始,但部署机制很少单独使用了。平台需要找出如何以本地方式将这些工具集成到其持续交付管道中。此外,交付管道负责验证目标环境是否安全可部署,然后推出变更(“ schema 变更 CD ”)。
-
此外,在微服务架构中,管理和协调单个部署单元内各种微服务的 schema 迁移对于确保安全发布或从故障中恢复至关重要。
-
故障排除 - 不幸的是,schema 变更并不总是成功的。现有工具在帮助开发人员摆脱困境方面几乎没有提供任何支持。这通常需要工程师连接到数据库来诊断问题,并执行风险操作,例如手动编辑元数据表。当计划的变更失败或导致停机时,平台团队应考虑他们可以做什么来支持工程师。
-
漂移检测和 schema 监控 - 一旦变更成功推出,则对于团队能够检测系统预期状态与实际状态之间的差异非常有价值。由于技术问题或允许手动访问数据库等情况可能会导致 schema 漂移,并且可能会引起操作和合规性问题。平台团队应考虑如何为其团队提供信心,即其应用程序中没有模式漂移。
-
令人惊讶的是,自我们作为一个行业开始 DevOps 之旅以来,在数据库 schema 变更管理方面几乎没有发生任何变化或创新。在 Ariga,我们正在构建 Atlas(开源)和 Atlas Cloud ,以提供上述问题的解决方案。
如果您是平台工程团队的成员,并且想了解更多关于如何帮助我们,请在 Discord 服务器 上联系我(或我的联合创始人 Ariel )。 | https://yylives.cc/2023/04/05/schema-change-management-for-platform-teams/ |
为什么要创建以开发人员为中心的 Kubernetes 平台,以及如何创建
翻译自 Why Create a Developer-Focused Kubernetes Platform and How 。
让我们看看为什么创建一个有意义的,然后探索构建它所需的组件。
在不断增长的云原生开发领域中,Kubernetes 已经成为组织的事实标准。许多处于云原生开发前沿的公司领导人确认,目前 Kubernetes 主要是一个通用编排框架。换句话说,Kubernetes 并不是“难点”。相反,“所有其他东西都很难:将所有内容链接在一起并使其正常工作。”
在开发人员至上的 Kubernetes 作为标准的背景下,平台工程和开发人员平台概念已成为组织的一种圣杯,这些组织寻求一种方法,使各级体验的开发人员的云原生之旅更加顺畅。没有一个久经考验的以开发人员为中心的 Kubernetes 平台,这是整个想法的挑战和美妙之处。工具领域广阔,组织将自己的开发人员平台放在一起,以挑选最适合他们需求的工具。然而,这也可能导致选择瘫痪和错误的开始,减慢速度并抵消云原生本应引入的速度优势。
考虑到这一点,让我们看看为什么创建一个以开发人员为中心的 Kubernetes 平台是有意义的,然后探索构建它需要哪些组件。
没有人否认云原生范式给开发组合带来了新的复杂性。突然间,单体开发的孤岛被打破,更线性的开发工作流程——代码和交给其他人——转变为分散的微服务架构。现在有不同的依赖关系和新的需求,例如伴随云原生革命而来的“你构建它,你运行它”的左移思想。但是开发人员真正需要了解 Kubernetes 的深度到什么程度呢?开发人员是否需要对整个软件生命周期负责,或者只是了解它的关键方面以促进交付速度和更快的反馈循环?
这些问题是关于开发者平台的讨论的基础,这也是近几个月来争论的焦点。无论这些平台是消除挫败感、提高生产力还是帮助标准化工作流程,开发社区(以及他们在 DevOps 和平台工程领域的同事)的一个收获是,开发人员至上的平台应该通过标准化降低复杂性,但为例外留出空间。
没有一种通用的开发者平台,这为铺设实现组织所需的开发者平台之路留下了空间。开发人员需要知道什么才能安全地发布软件,平台又将如何帮助他们实现?
有效面向开发者的 Kubernetes 平台需要考虑以下关键因素:
支持开发人员自助服务和可见性。为完成工作所需的工具和可见性创建基线,并建立灵活性以确保没有人被锁定。自助服务基线允许每个人独立地根据同一组标准工作,并使新开发人员入职变得容易更快地促进可靠、高效的生产。
-
让它变得简单。是的,开发人员需要了解 Kubernetes,但前提是这种理解有助于交付软件和更快地获得关键反馈。通过为开发人员提供足够的能力来快速进行而不用担心重要的(但对他们来说是次要的)考虑因素,例如基础设施和安全性,从而调动简单性和清晰性。
-
释放 DevOps/PlatformOps 的力量。DevOps、PlatformOps 和站点可靠性工程团队不仅仅是消防队员和第一线支持。创建一个面向开发者自助服务平台可以使他们专注于战略项目并支持持续改进。
-
集中关键数据。团队需要实时数据来收集洞察力,以了解哪些有效,哪些无效。无论是衡量绩效还是跟踪合规性,集中式平台都可以收集运营和资源数据。
-
注重更快的反馈。当前宏观经济形势加强了以更快、更高效地完成任务的需求。一个好的开发者平台应该提供快速反馈,这样就不会有人坐在那里等待构建。
-
促进开发者体验。任何能减少认知负荷并使开发者专注于他们的核心任务(特别是在市场条件艰难时),都是一项不错的投资。
-
虽然所有这些为为何需要面向开发者的 Kubernetes 平台提供了背景和理由,但哪些组件将帮助他们实现呢?
尽管 Kubernetes 已经存在多年,但它仍然存在挑战,因此开发者平台已被打造出来以解决这些问题,并为运维团队提供一些帮助。这些平台旨在回答以下问题:如何在 Kubernetes 上构建高效的开发工作流程?如何创建开发环境,将您的源代码控制系统、开发环境和部署系统集成起来?如何有效地协作处理日益复杂的工作流?
每个平台看起来都有所不同,但最终你想选择帮助你编写、发布和运行服务的组件。
代码组件
首先,一个平台需要设置、配置(和维护)本地开发环境(和测试环境),尽可能模拟生产环境。同时应该建立源代码控制和持续集成/持续交付功能。理想情况下,您可以设置平台以使开发人员能够在本地编写代码,但对远程服务和数据存储进行测试(即远程到本地或“remocal”开发)。
在此步骤中创建的开发环境和工作流程有助于实现每个组织所追求的开发人员生产力提高目标,这就是为什么正确处理平台的这一部分至关重要。
搬运组件
云原生领域中关于让开发人员“左移”的讨论很大程度上涉及启用开发人员承担端到端的代码-交付-运行责任。这并非总是可行或理想的——它取决于组织和其云原生成熟度水平。但是,赋予开发人员更多洞察力和质量聚焦任务的责任意味着在软件生命周期进入交付阶段后,开发人员将更多地参与其中。许多组织已经投资于开发人员平台,为开发人员责任的这些新元素创建无摩擦路径,将其缩减为“需要知道”的基本要素,将其从开发人员不关心(或不需要关心)的复杂功能中抽象出来。
对 Kubernetes 开发者而言,可见性是必备条件之一。分布式服务面临的挑战之一就是了解部署和发布哪些版本以及使开发人员应用程序正常工作所需的所有依赖项。自然而然地,这很复杂,因此可见性可以消除障碍。同时,该平台还应提供易于测试新版本的方法,使用金丝雀发布等工具进行测试,在确保安全释放服务到最终用户时逐步释放服务,但如果出现问题,则可以快速回滚。
运行组件
在运行您的服务时,您的平台应包括流量管理功能,例如负载均衡和速率限制,以确保微服务的可用性和可扩展性。但是无论您创建什么流量管理策略,并且尽管进行了最佳测试努力并发布了许多金丝雀版本,可能会出现问题。您的平台应设计为处理这些小问题,并作为工作流程中生产事故快速缓解和响应的一部分。
当然,您将希望具有观测能力来监视和检测异常行为,以更轻松快速地识别问题。
开发者平台已成为塑造和简化开发者体验的核心途径。一个良好的开发者平台的基础,无论包含哪些工具和流程,都是指导组织中的开发人员了解、看到并定期执行成功所需知道的内容。 | https://yylives.cc/2023/04/06/why-create-a-developer-focused-kubernetes-platform-and-how/ |
在 Kubernetes 之前学习 12 Factor 应用
翻译自 Learn 12 Factor Apps Before Kubernetes 。译者在团队里也一直把 12 factor 作为 Kubernetes 学习的必修前导课。译者和这个作者心有戚戚焉,确实很想告诉别人,这个很重要,但不好表达,而这个 12 factor 理论说出了我们很多的想法。不管使用何种管理工具,12 factor 都可以让云原生之旅更顺畅。
这些最佳实践为构建可扩展、可移植、可维护和有弹性的容器化应用程序提供了一个框架。
您是否曾经在工作中使用容器化应用程序时苦苦挣扎,但又无法完全表达原因?
我最初接触容器的经历是在一家公司,他们以各种错误的方式实现了容器。例如,他们在容器内运行数据库,并没有使用外部卷进行存储。你没看错:他们将数据库存储写入 aufs 文件系统中,这不是为长期存储设计的,并且非常缓慢。当我提到这是一个可怕的想法,因为我们可能会失去所有数据时,答案是:“我们正在做快照备份,所以没问题。
他们放入容器中的第一个应用程序并没有好多少:
他们没有使用环境变量进行配置;相反,他们硬编码配置并挂载配置文件。
-
当数据库不可用时,应用程序立即死亡;它不会等待或重试,直到数据库变回可用。
-
有糟糕的日志消息或日志保存到文件,而不是标准输出日志记录。
-
他们使用不同的应用程序运行管理流程,例如数据库迁移。
-
应用程序不必要地是有状态的。
-
正如 Kelsey Hightower 所提到的,我使用 entry-point 脚本解决了其中的大部分问题。但这是弥补糟糕设计的一个 hacky 解决方案。我记得我害羞地要求开发人员重新设计他们的应用程序以解决所有这些问题,只有我的意见支持我。所以我上网做了一些研究,发现了 12 Factor 应用 ,它不仅扩展和验证了我的观点,而且给了我一个很好的框架来支持我的论点。
12-factor 应用方法是一组构建容器化应用程序的最佳实践。 Heroku 于 2011 年引入了这些实践,此后它们已被全球软件开发团队广泛采用。
这 12 个要素为构建可扩展、可移植、可维护和有弹性的应用程序提供了一个框架。但也许最重要的好处是它们创建的应用程序对操作员来说很容易,因为它们旨在与任何容器编排器无缝协作。
Kubernetes (K8s) 最适合 12 factor 应用,因为它们是容器化应用程序的最佳设计实践。 K8s 作为容器编排器,其设计假设您的应用程序是 12 factor 的应用。
在不知道如何设计容器应用程序的情况下冒险进入容器编排将使操作它们的管理变得更加繁琐且可扩展性降低。当然,你可以让单体应用和设计糟糕的应用程序在 Kubernetes 中运行。例如,您可以挂载卷、运行 statefulSets 甚至进行垂直自动缩放。但最终,您将不得不应对高昂的运营成本:
Factor|
未实施的运营成本|
Codebase|
具有共享代码库的应用程序更难更新和维护。|
Dependencies|
时间花在查找和安装应该明确定义并与容器一起打包的依赖项上。|
Config|
时间和工程花费在从源代码创建 entry-point 脚本和/或自定义镜像以更改硬编码配置。|
Backing Services|
更改支持服务时,迁移成本高且耗时,并且/或停机时间长。|
Build, release, run|
将应用程序代码和运行的服务器视为一体会导致雪花服务器、痛苦的维护和昂贵的升级。|
Processes|
共享状态时,应用程序无法水平扩展。升级时也不能无缝替换它们。|
Port binding|
这意味着要维护像 Tomcat 这样的 Web 服务器容器,从而导致显着的配置开销和膨胀的应用程序运行时间。|
Concurrency|
未在设计时考虑到并发性的应用程序可能会使用过多的资源,从而成为扩展的糟糕选择。|
Disposability|
这会导致数据丢失和性能问题,这是由于缺乏正常的关闭实现以及不处理请求以便它们可以处理崩溃。|
Dev/prod parity|
无法预测应用程序在生产中的表现。停机时间会增加并削弱部署速度。|
Logs|
将日志发送到日志仓库很繁琐。容器编排器期望日志使用标准输出。|
Admin Processes|
时间被浪费在采购一个不属于应用程序一部分的流程上,甚至是手动完成。|
平台工程有助于通过内部开发人员平台 (IDP) 提供出色的自助服务和出色的开发人员体验。通过提供黄金路径和基于用户角色的多重抽象,IDP 显着降低了开发人员的认知负担。
在平台工程中,12 factor 应用很重要,因为开发人员使用 IDP 自助服务他们的应用程序和基础设施需求。内部开发人员平台通常利用容器编排并将服务的运营转移给开发人员,这意味着卓越的运营对于缓解上述所有问题至关重要。
像 Humanitec 这样的平台编排器位于 IDP 的中心,可以通过简单的工作负载规范轻松地将工作负载及其所有资源部署到所有环境。
Humanitec 使用 K8s 部署工作负载,因此,设计 12-factor 应用程序对于保持高运行性能至关重要。使用 IDP 时,开发人员可以自助满足其基础架构和配置需求,包括部署和操作应用程序。如果他们使用非 12 factor 应用程序,他们将遇到上述所有痛点。
例如,假设您有一个使用数据库的应用程序。假设您没有使用 12 factor 应用。在这种情况下,您可能需要将配置挂载到磁盘上,并且您用来自动执行此过程的任何工具都可能设计为将配置作为变量使用。如果你有多个环境,你会使问题复杂化。
总体而言,12 factor 应用使部署、管理和扩展应用程序变得更加容易。它们还使与其他开发人员的协作变得更加容易。
12 factor 应用框架提供了构建可扩展、可移植、可维护和有弹性的容器化应用程序的最佳实践。在云中部署和运行应用程序时,它们对于保持卓越的运营至关重要。
平台工程帮助开发人员使用他们自己的基础设施并轻松操作他们自己的服务,但服务必须在设计时考虑到这些工具。我们鼓励所有开发人员采用 12 factor 方法,让他们的生活更轻松。
您的 12 Factor 应用程序准备好了吗?立即使用 Humanitec 对其进行标准化和部署。 | https://yylives.cc/2023/04/12/er-platform-engineering-learn-12-factor-apps-before-kubernetes/ |
为什么你应该像产品团队一样运作你的平台团队
翻译自 Why You Should Run Your Platform Team Like a Product Team 。译者这几年也是做类似的工作,发现产品思想对工作促进良多。
与产品团队一样,成功的平台团队必须了解其“客户”和利益相关者的需求。
我在软件工程和 DevOps 领域工作了大约十年。在过去的五年里,我一直在平台团队和其他以基础设施为中心的团队工作,这些团队正在努力成为平台团队,即使他们当时没有意识到这一点。考虑到这一点,我有一个关于如何帮助确保平台团队成功的建议:像产品团队一样运作它们。
平台团队专注于构建和维护核心系统和工作流,以向应用程序团队交付基础设施和其他服务。由于应用程序运行在基础设施的基础上,因此支持基础设施是一项艰巨的工作。平台工程不仅包含您传统上认为的“基础设施”——虚拟机、计算集群和网络——它还包括所有连接应用程序和基础设施世界的粘合剂。其中包括 API、监控、CI/CD 管道、凭证管理等。所有这些都集中在一个保护伞下,构成了“平台团队”中的“平台”。
平台团队解决了基础设施供应和配置的历史问题。以前,基础设施的创建、更新和删除涉及手动过程,例如指向和单击以创建基础设施或临时脚本。在基于云的环境中,基础设施正在自动化并在几分钟内启动。几天之内就会构建新功能并将其部署到生产环境中。
除了支持应用程序团队外,平台团队还有责任确保他们构建的工作流在这种加速下仍然符合行业和公司标准。就像产品团队必须从客户那里收集反馈并听取关键利益相关者的意见一样,平台团队需要与应用程序团队协作,同时还要满足安全、合规、财务等方面的要求。
虽然这意味着平台团队有时需要防止开发人员的请求超出那些利益相关者的边界,但在我的经验中,更常见的情况是许多组织将继续围绕手动更改基础设施建立遗留合规流程,这与现代自动化实践不太相符。
要实现现代化,平台团队必须以一种对组织内关键团队可接受的方式挑战现状。平台团队必须与这些团队交流,了解为什么会有某些政策,并找出如何安全地自动化他们的系统。这种外交工作可能比平台团队的技术责任更具挑战性。
为了应对这一挑战,平台团队应该像产品团队一样运作。
产品团队了解他们为客户服务,并且客户的持续反馈至关重要。那么,平台团队的客户是谁?应用程序开发团队。
对于任何产品来说,第一步是用户研究。平台团队在开始构建平台之前需要与其用户建立反馈循环。他们需要需求、范围和优先级。他们还需要版本化基础设施组件、执行维护、建立意识、鼓励采用并传达新闻。平台团队还需要考虑“特性”。像任何产品团队一样,基于客户反馈和业务需求,平台团队应该有一个关于要向客户提供哪些功能的想法。
对于平台团队来说,功能通常是针对不同类型应用架构的基础设施相关能力。例如,平台团队可能正在开发容器化能力,以便让应用团队将应用程序推送到特定运行时介质,并确保部署符合组织标准。其他常见的能力包括无服务器、GPU 密集型工作负载和跨网络和移动分布的前端应用程序。这些能力与云服务提供商无关。
将平台构建过程视为任何其他软件项目。采用迭代方法,永远不要认为平台“完成了”。不要因为你正在构建内部而非外部的东西就忘记了 IT 世界在过去几十年中完善的所有经过实战检验的产品管理策略。
请参考 Elanco 的混合多云采用案例研究,该案例展示了这家动物保健供应商如何从架构师、开发人员和企业团队中收集用户反馈。还包括其平台分析、设计和自动化阶段的蓝图。
要了解对平台团队有效的一些经过实战检验的产品管理策略,请观看 ThoughtWorks 的 Poppy Rowse 和 Chris Shepherd 的演讲“平台工程的非技术挑战”。
产品团队还必须了解他们的利益相关者的需求。平台团队的利益相关者包括组织基础设施交付管道中的其他所有团队。这些团队可能有不同的名称,但包括网络、传统 IT、安全、身份、财务、风险、合规等。平台团队的成功与这些职能团队的成功密不可分,如果没有它们,当你需要时就不会有资金和支持。
平台团队的主要目标是帮助开发人员尽可能安全地快速发布软件,同时满足组织利益相关者的需求。组织利益相关者通常寻求默认安全的基础设施工作流程、合规性保障、减少故障单和低效率,并通过消除基础设施扩张来降低成本等其他要求。这些领域中许多都是开发团队的盲点,但对于发布软件的“安全”因素至关重要。
关键是将所有利益相关者团队的代表紧密集成到您正在进行的沟通和需求构建过程中,就像您在外部产品开发工作流程中所做的那样。
学习如何与利益相关者合作,可以从 Controlware 的 Christian Bergner 的演讲中获得启示:“在金融领域建立云操作思维:变革日记”。该演讲包括两个案例研究,并描述了将每个功能都聚集到同一桌前讨论平台的过程。
平台团队的存在是为了应对基础设施从手动、人工驱动的流程向自动化自助流程的世代转变。管理这些新流程所需的技能集合大不相同。平台团队代表了一种专业化,以解决基础设施和应用程序开发中的主题差异问题。
企业需要快速向客户交付新产品和功能的需求从未如此之高,这给应用团队带来了更大的压力。这意味着基础设施必须像软件更新一样迅速适应。如果基础设施运营商希望应对挑战,就必须像软件工程师一样思考。平台团队是这一转变的重要组成部分,融合了基础设施和软件工程领域。 | https://yylives.cc/2023/04/15/why-you-should-run-your-platform-team-like-a-product-team/ |
Kubiya 推出用于平台工程的第一代人工智能
翻译自 Kubiya Launches First Generative AI for Platform Engineering 。
在 KubeCon EU 2023 上,用于 DevOps 的 Kubiya 对话式 AI 发布了第一个用于平台工程的生成式 AI 工作流引擎。
阿姆斯特丹 - 随着平台工程成为一种更广泛采用的学科,平台团队的待办事项只会增加。随着开发人员采用新的最佳实践和工具,该团队需要提高技能水平,并了解分布式、通常是七层堆栈中越来越多的内容。而旨在减少开发人员疲劳度的团队反过来又有自己不断增长的认知负荷要承担。
去年十月,Kubiya 推出了一款面向 DevOps 团队的对话式人工智能,旨在改善内部和外部开发人员的自助式、终端用户体验。现在,在 KubeCon+CloudNativeCon Europe 上, Kubiya 发布了一个新的生成 AI 工作流引擎,专为平台工程团队设计。
The New Stack 采访了首席执行官 Amit Eyal Govrin ,谈到生成式人工智能在整个软件开发生命周期中的不断增长的用例 - 以及行业如何更愿意接受它,因为 Kubiya 的定位从“ DevOps 团队的 Siri ”转变为“平台团队的 ChatGPT ”。
离开隐身模式大约六个月后,Kubiya 发现了两个常见的客户用例——内部开发人员和外部开发人员。第一个是在处理内部复杂性的企业内部,后者是为大约 1000 多家小型软件公司提供的,在客户需要访问基础设施时加快他们的响应时间。
Govrin 谈到了一家领先的数字媒体解决方案和服务公司的客户,而这家公司又拥有迪士尼和 NBCUniversal 等客户。他们的客户可能会请求他们提供服务器上安全管控的 Amazon S3 存储桶中存在的特定视频。发生这种情况时,传统上,客户必须确认请求的合法性并通过审批流程对其进行授权。然后,另一名员工必须前往 S3 存储桶,并在安全的 Slack 通道上将 secret 管理扩展到客户。然后,客户将在他们的端授权该请求,然后才能下载它。
想象一下,在跨职能团队之间有四五个不同的子流程,这些流程涉及到完整交易,并且经常需要提供方的项目经理手动配置所有这些不同的步骤,然后让 TAM (技术客户经理)从安全方式复制 S3 存储桶并将其发送给最终客户。由于来回沟通和人为干预,所有这些都可能需要几天时间。”戈夫林说道,回忆起 FTP 服务器时代。此过程通常需要一个项目经理、时间以及从本地服务器下载东西的人。
通过 Kubiya 的工作流自动化、安全访问控制和知识管理,团队可以更轻松地验证请求,并且甚至能够向最终客户提供 10 分钟的服务水平协议(SLA),消除了环节中的摩擦和人为因素。
这可以在客户关系已经存在的地方完成,比如 Slack 、 Notion 、 Confluent 或 Gitbook 。人类顾客只需问一个问题,比如“我能看到X演员最近的视频吗?”然后这种人机交互就会回应。
重要的是,像在 Slack 中一样,对话式人工智能用户体验包括人类反馈,如赞或踩或是或否等,澄清用户想要什么,并将其反馈回 Kubiya 的强化学习与人类反馈(RLHF)进行训练,提高其精度,并不断为最终用户定制响应。
这实际上是 ChatGPT 在许多企业应用案例中表现不佳的一个重要原因,”Govrin 观察到。他说,到目前为止,ChatGPT 无法验证其关于幻觉的响应——这些输出听起来很合理,但要么不准确,要么与问题无关——也不能正确保护数据的完整性以响应许多商业案例。谈到 Kubiya 时,他继续说:“我们不仅在特定领域的数据上对模型进行微调,而且还允许用户提供反馈——赞或踩——[这]将进一步加强模型,并个性化地适应组织和最终用户。
不出所料,Kubiya 最常见的用例——或用户问题——是无所不在但并不总是易于理解的 Kubernetes 编排。
Kubernetes 的故障排除和操作混乱,往往充满人为错误,这是由于上下文切换和缺乏领域专业知识所致。通常通过 kubectl 、 Helm 、 Argo CD 等工具和命令处理的请求存在于数据孤岛和过时的维基中。” Govrin 告诉 The New Stack 。“能够将 Kubernetes 操作民主化为自然语言提示可以使许多经验不足的操作员平等竞争,并显著提高有经验的操作员的速度。
如果开发人员想要设置 Kubernetes 命名空间,他们可以在 Kubiya Slackbot 中输入“Kubernetes”,然后返回完整的 Kubernetes 部署流程图,从中选择命名空间。他们还可以更具体地询问:“给我创建 Kubernetes 命名空间的工作流程”,Slackbot 将返回一个触发该工作流程的简单方法,并提供有关其更多信息的链接。
值得注意的是,由于每个组织使用 Kubernetes 的方式不同(这也是它的挑战之一),Kubiya 的精细调整模型会学习并适应组织特定领域的知识,以优化其类似问答式、人机对话式的对话人工智能。
你可以通过简单的英文提示在聊天平台上应用 Helm Chart 并调试、回滚和获得对 Kubernetes 集群资源的可见性这一事实——就像您向 DevOps 或平台工程师询问一样——完全改变了用户体验。不需要使用如此多的工具和解决方案来执行这些简单操作,” Govrin 进一步解释道。
如何在不必试图建立新平台的情况下,去帮助创建这些自动化和工作流程?”接着, Govrin 告诉 The New Stack 关于扩展 Kubiya 的用例和范围,超越个人用户体验并涵盖整个平台工程团队。“通常来说,平台工程是很费力的,需要设置和维护这些系统,并且创建新的工作流程对操作员来说非常繁重。这通常是他们购买决策中要考虑的一个因素:我是否想要投入所有时间和精力为自己创建所有这些定制操作?
平台工程团队不仅需要理解应用程序开发团队的需求,还要将它们连接起来以更快地提供业务价值 - 这本身就是一项艰巨的任务。但平台工程师还必须能够理解和创建业务逻辑和工作流,并将其传达给应用程序团队。这就是为什么在 KubeCon 上,Kubiya 推出了一个新功能,为其新 Web 应用程序提供生成式 AI 工作流创建的原因。
Govrin 提供了一个例子,即在 Kubiya 中输入“我想为 AWS SSM 创建一个新参数”,其中 SSM 代表 Amazon Web Services Systems Manager Agent 。生成的工作流程看起来像是人与机器之间的对话,可以包括必要的人类干预触发器。这与其他平台(如Jenkins)进行机器之间交互形成鲜明对比。
我们所说的是,有人进来要求某些需要以不同方式看待工作流程的东西。因此,我们看待工作流程的所有方式都是从人到机器。你如何创建这种体验,让它看起来和行为非常像另一端的某个人正在给你提供服务。” Govrin 解释了 Kubiya 生成式 AI 对话式工作流程的目标。
这用作工作流程模拟器,可以帮助平台团队在现有系统和流程中调试和评估新的工作流候选项的可用性。他们无需投入大量时间和精力,就能够在对话式人工智能、拖放设置中进行测试、运行和调试。平台工程师还可以导入 YAML 或 JSON,并将其全部以低代码形式直观地布置在现有业务逻辑中。
即使使用典型的低代码平台工程工具, Govrin 警告说测试新的 DevOps 工作流可能需要几个小时。 Kubiya 的新 Web 应用程序是基于属性的访问控制(ABAC)感知和业务逻辑感知。他解释说,这以及它的组织知识使其能够更快地回答特定于领域和业务的问题。
它允许团队以不同的方式提出和回答问题 - 其中一些只有您的团队可能知道,提供内部俚语名称和更传统的名称。
它会自动捕获并在知识库上进行培训,”他说。“这本质上是组织特定领域的知识,延伸到生成式工作流程创建。这两个工具给你几乎人类般的体验。”即使对于尚未创建的工作流程,用户也可以简单地进入 Slack 并要求新内容。
其他活跃的 Kubiya 使用案例包括将自然语言处理应用于 Backstage 开源开发平台,以增强和加速具有交互式用户体验的开发。
“我们正在抽象化所有的工作,” Govrin 说。
本周,Kubiya 还发布了一个 playground workplace ,这是一种沙盒,开发人员和平台工程师可以在其中使用该工具,而无需连接到他们自己的环境中。 | https://yylives.cc/2023/04/20/kubiya-launches-first-generative-ai-for-platform-engineering/ |
PaymentWorks 如何使用 Slim.AI 实现其开发者平台的现代化
翻译自 How PaymentWorks Modernized Its Developer Platform with Slim.AI 。
PaymentWorks 寻求更新其开发 pipeline 、自动保护容器并提高开发人员速度以获得竞争优势。
PaymentWorks 是一个企业支付安全平台,其使命是减轻企业对企业支付中固有的风险。通过自动化复杂、手动、人员密集且容易出错的支付流程,PaymentWorks 保护组织免受商业支付欺诈并确保合规性。
在满足严格的安全性和合规性要求的同时快速交付新功能一直是其成功的关键,但其工程师负责一个新的业务关键型软件开发项目,期限紧迫,并引起了高管、客户和投资者的浓厚兴趣。
工程团队决定将新服务构建为容器化微服务,以主动拆分现有的基于 VM 的单体基础架构。这样做将使他们能够缩短开发周期、降低复杂性并使开发人员更容易入职。他们需要确保交付生产就绪容器作为新的“可交付软件单元”的质量、合规性和一致性。此外,他们需要可扩展的开发人员体验,以便随着业务的增长和团队中更多开发人员的加入实现快速入职。
通过这个新项目,目标是简化软件交付 pipeline :
作为发布过程的一部分,自动创建安全的、生产就绪的容器,以减少漏洞和攻击面。
-
消除手动、重复的活动,例如围绕架构决策编写临时脚本和手动簿记,这些活动会导致单调的工作、人为错误和延迟。
-
将容器强化过程融入现有的开发人员工作流程中,以简化采用并提高速度。
-
减少 DevOps 开销,同时将容器从开发转移到生产。
-
PaymentWorks 的另一个目标是对生产中运行的工件的确切版本具有完全的可见性、历史记录和控制,例如特定镜像运行的位置、依赖项(包)和应用程序代码的版本(git 提交)包含。由于金融服务的机密性,新系统需要安全且易于审计。
实施这个新系统将帮助公司更有效地扩展以满足未来的需求并缩短测试周期,这是其基于 EC2(亚马逊弹性计算云)实例的遗留构建和测试管道所面临的挑战。
PaymentWorks 工程团队知道,为开发人员提供正确的工具和自动化将确保在他们过渡到容器化平台时满足最佳实践。
他们求助于 Slim.AI,Slim.AI 提供的解决方案可以自动优化容器化应用程序的组成和构造,以创建强化容器、改进构建和部署周期,并提供对应用程序行为和性能的深入洞察。
这些团队首先将 Slim.AI 集成到基于 PaymentWorks Jenkins 的 CI 管道中,记录容器和相关工件,并将它们作为“集合”存储在 Slim 基于 Web 的 SaaS 平台上。 Jenkins 通过 API 与 Slim.AI 平台通信,确定必要的构建细节和上下文以生成正确组合和标记的容器。
在此过程中,Slim.AI 会对所有构建上下文、容器版本、标签、属性和历史记录进行分类。构建容器后,Slim.AI 会自动生成一个新的特定于环境的 Docker Compose 文件,该文件将最新版本固定到语义引用,并将其提交到 GitHub 以用于指定的部署上下文(开发、测试或生产)。
PaymentWorks CD 系统然后引用 Slim.AI Collections API 来查找部署和运行系统所需的容器、Docker Compose 文件和元数据。 AWS Elastic Container Registry 存放容器,Slim.AI 自动跟踪每个集合的所有容器版本、运行漏洞扫描程序、加固容器并生成合规性工件。
开发人员可以通过基于 Web 的 UI 或命令行界面与 Slim.AI 交互,以审查工件,查看他们最近构建的容器内部,并以开发人员友好的方式调试和保护他们的容器。 PaymentWorks 的第一个容器将漏洞总数减少了 89%,消除了所有关键和 60% 的高风险发现。
这种集成的容器管理系统允许 PaymentWorks 环境的其他方面以编程方式与 Slim.AI 交互,具有语义精确性、速度和高度自动化,无论是在 AWS 上运行的基础设施还是安全和合规性审计。
最好的部分是它是完全自助服务和不干涉的:没有摩擦、手动步骤或脚本。根据 PaymentWorks 平台工程副总裁 Matias Elgart 的说法,随着开发团队的不断壮大,该系统创建了一种轻松加入新微服务环境的方法,开发人员喜欢他们不必手动管理和共享文件和本地脚本。
通过与 Slim.AI 合作,PaymentWorks 实现了提高安全性和合规性的综合目标,同时减少操作复杂性、错误和重复的 DevOps 周期,让他们的团队腾出时间专注于为客户构建出色的软件并创造积极的开发人员体验。 | https://yylives.cc/2023/05/06/how-paymentworks-modernized-its-developer-platform-with-slim-ai/ |
基础设施即代码或云平台—由您决定!
翻译自 Infrastructure as Code or Cloud Platforms — You Decide! 。
了解两种流行的云基础设施管理方法。
让我们比较云基础设施管理的两种常见方法。首先是我们广泛归类为基础设施即代码(IaC)的方法,其中工程师使用编程/脚本语言构建一组脚本,以在云平台上实现所需的拓扑结构。 Terraform、Cloud Formation、Chef、Puppet 和 Ansible 是一些流行的工具。
这项技术由编写脚本的语言和可以运行脚本的控制器组成。一旦满意结果,用户将保存脚本在代码存储库中。随后,如果需要进行更改,则会编辑文件并重复相同的流程。
第二类是云编排器或平台。通常,这是对本地云 API 的轻量级抽象,作为 Web 服务与用户交互,用户将通过 UI 或 API 连接到该服务,并在该 Web 服务中构建云拓扑。
构建的拓扑将由编排器应用并保存在自己的数据库中。用户不需要显式保存配置。当必须进行更新时,用户将再次登录系统并进行更改。
对于规模较小的用例,使用平台可能太重了。但是在规模上,IaC 方法往往会演变成为内部平台。在这种情况下,更好的策略是使用现成的平台,在需要定制时可以使用 IaC 脚本进行增强。像 Facebook 和 Netflix 这样的大型数据中心是一种不同的情况,不在此上下文中考虑。
对于较小规模的用例,平台可能太重了。但在规模上,IaC 方法往往会演变成一个内部平台。在这种情况下,更好的策略是使用现成的平台,在需要定制时可以使用 IaC 脚本对其进行增强。属于 Facebook 和 Netflix 的超大规模数据中心是另一回事,因此不在本文考虑范围之内。
平台化方法提供的基本价值是我们所谓的“长时间运行的上下文(long-running context)”。人们也可以称之为“项目”或“租户”。上下文可能映射到一个应用程序或一个环境,如演示、测试、生产或开发人员沙盒。在更新拓扑时,用户总是在这个上下文中操作。平台会将更新保存在该上下文的自己的数据库中,然后将其应用于云。简而言之:您始终可以保证该数据库中存在的内容是应用于云的内容。
在 IaC 方法中,这样的上下文并没有原生地提供,而是留给用户自己定义。通常,这可能会转化为“哪些脚本需要针对哪个上下文运行?”或者可能是代码库中表示给定租户或项目配置的文件夹。将上下文定义为代码集合更加困难,因为许多脚本可能在不同租户之间共享。因此,最终取决于开发人员对代码库的理解。
平台方法是解决这个问题的更具声明性的方法,因为它需要很少或没有编码,系统会根据意图生成代码,而无需了解低级实现细节。而在 IaC 的情况下,任何更改都需要对代码库有很好的理解,特别是在大规模操作时。在平台方法中,用户可以在几天后回来并登录到相同的上下文,而无需深入挖掘代码以了解之前做了什么,就可以继续之前的工作。
两者之间的第二个根本区别在于,IaC 是一个多步骤过程(编写脚本、运行脚本并将其合并到仓库中),而平台是一个一步过程(登录到上下文并进行更改)。使用 IaC ,用户可能会更新脚本,但可能会忘记或推迟将其保存到代码仓库中。与此同时,另一个工程师可能已经为他们自己的拓扑做出了代码库的更改并进行了合并。现在,由于许多代码片段在两种用例中共享,第一个开发者可能会发现自己陷入了冲突,即使通过合并代码来解决,也会出现这种情况,即在云中运行的内容与代码库中的内容不同。现在,开发人员必须重新运行合并的代码进行验证,而忽略引起回归的可能性。为避免这种风险,我们现在需要在 QA 环境中测试脚本。
IaC 工具可以实现部署,但运行云软件的基础设施还有很多其他方面需要考虑。我们需要一个应用程序配置机制,一种收集和隔离每个应用程序日志和指标的方法,监控健康状况并提醒警报,创建审计追踪记录,以及一个身份验证系统来管理用户对基础设施的访问。有几个工具可以解决这些单独的问题,但需要将它们缝合在一起并集成到应用程序环境中。Kubernetes、Splunk、CloudWatch、Signalfx、Sentry、Elk 和 Oauth 提供商都是这些工具的例子。但是,如果开发人员想要以合理的规模运行,他们需要一个统一的“平台”来将所有这些内容整合在一起。这带我们到下一个重点。
当与许多工程师交流时,我们听到了这样的观点:基础设施即代码结合 BASH 脚本甚至常规编程语言(如 Go、Java 和 Python)提供了克服上述挑战所需的所有钩子。当然,我同意这个观点。通过这种代码,你可以构建任何东西。但是,你可能正在构建已经存在的相同类型的平台。为什么不从现有平台开始,通过脚本添加自定义功能呢?
第二个观点是,基础设施即代码更灵活,允许进行深度定制,而在平台中,您可能必须等待供应商提供相同的支持。我认为随着我们技术的发展,到了汽车自动驾驶的程度——曾经被认为纯属幻想!——平台比它们被认为的要先进得多,并具有强大的机器生成技术,以满足大多数,如果不是全部,使用案例。此外,一个好的平台不会阻止用户通过脚本工具定制超出其自身范围的部分。一个设计良好的平台应该提供正确的钩子,以消耗在平台之外编写的脚本。因此,这个观点不能证明为大多数标准任务构建代码库的合理性。
这也是一个常见的论点。我同意:一个好的平台应该努力解决这个普遍存在的问题。在 DuploCloud,我们相信我们已经构建了一个平台,解决了大多数使用情况,同时赋予开发人员能力,将在系统外创建和管理的策略集成到系统内部。
一种有点令人惊讶的支持自主构建平台的论点是,对于工程师来说,这只是一个非常酷的项目,特别是对于那些来自系统背景的工程师。我住在硅谷,并发现在与这个地区的客户交谈时有一个非常有趣的趋势。
当我们与基础设施工程师交谈时,我们发现他们更强烈地想要在内部构建平台,并且他们非常清楚地知道他们正在为他们各自的组织构建一个“平台”,而不是像他们认为的那样“编写脚本”。对于这样的公司来说,定制化是反对现成工具的常见论点,而混合云和本地部署是重要的使用案例。像 Kubernetes , Consul 等开源组件是常见的,因此我经常听到认为不必重新发明轮子的说法。然而,团队规模和为解决方案分配的时间相当大。在某些情况下,构建平台的重点会掩盖公司本应销售的核心业务产品。虽然不完全科学,但我倾向于在圣马特奥以南的地区看到这些公司。
这些公司的工程师们则更多地专注于纯软件即服务应用程序的开发。这些应用程序使用了很多本地云软件,例如 S3、Dynamo、Amazon Simple Queue Service (SQS) 和 Amazon Simple Notification Service (SNS),因此很难采用混合云。他们很乐意通过 API 或 UI 将容器交给 Amazon Elastic Container Service (Amazon ECS) 来部署,而且不喜欢部署或学习 Kubernetes。因此,他们内部定制的趋势和深度要少得多。
多少次,多少人会写同样的代码来实现同样的功能?最终上市时间会占上风。 | https://yylives.cc/2023/05/07/infrastructure-as-code-or-cloud-platforms-you-decide/ |
KubeCon 小组讨论:平台工程如何让开发人员受益
翻译 KubeCon Panel: How Platform Engineering Benefits Developers 。
KubeCon 小组解释了平台工程,以及为什么拥抱这种新的 DevOps 趋势符合开发人员的最大利益。
如果说 DevOps 是将运维和开发工作流程相结合的话,那么平台工程旨在解决由此产生的问题。这不是两者之间的二选一,而是一个 DevOps 运动的演变,一场 KubeCon+CloudNativeCon Eu 的小组讨论这样说道。
“我有时会对为什么某些事物必须消亡以便其他事物存在感到困惑,” GitLab 的首席产品官 David DeSanto 说道。“对我来说,平台工程的本质是确保您的 DevOps 团队与平台更有效地合作,两者之间存在很多重叠和价值,这是一个相互促进的关系。”
HashiCorp 欧洲、中东和非洲地区首席技术官 Sarah Polan 说,从非技术意义上讲,平台是支持您尝试做的任何事情的东西。
“因此,在 IT 领域的情况下,这些是您要构建的基础组件,以创造业务价值并解决您的业务问题,” Polan 说道。“在我们的案例中,这些都是部署和提供 Terraform 作为产品所需的所有小部分,这就是我们的团队所依赖的,为了能够做到这一点而消费的。”
DeSanto 建议,产品实际上可以是平台。
“至少对于我们在GitLab来说,平台就是产品。我们的平台团队专注于 gitlab.com ,这就是我们的产品,”DeSanto说道。“所以我认为这取决于您在与谁交谈——谈话中的客户是谁?”
该小组还同意,平台工程是一种实践,而不是可以购买的东西——他们警告说,尽管有些人会试图把它卖给你。
“平台工程可以是我们正在承担的一个角色,类似于 DevOps ,而我相信——并与我的同行交流——它确实是其延伸,是我们所做的事情的一个扩展。它是进化而来的,不一定是革命性的,”红帽混合平台营销洞察总监 Stu Miniman 说道。
Polan 说,平台工程是关于应用最佳实践并确保对开发组织及其使用的工具进行一定程度的控制。
“当时我在一家金融机构工作,当时在运行 Go 应用程序,所以它并没有受到 Log4j 的影响,但我仍然在半夜接到了三个电话,因为...我们需要确保一切都得到了适当的修复,” Polan 说道。“这确保我们作为组织拥有适当的控制,但同时也要基于此获取商业价值,并设置防护措施来说,‘我们希望您能够做您想做的事情。我们希望您遵循行业标准,使用开源软件,但我们也希望确保我们对这些事情有足够的控制力。’”
该小组指出,通过拥有一组经过批准的工具和库选项,组织可以更快地吸纳开发人员。开发人员自然喜欢尝试新工具——这是他们的工作的一部分,曾经担任开发人员的 DeSanto 说道。问题在于,每个开发人员引入新工具,以及针对这些工具的集成,可能会导致工具泛滥,他说。
他说:“你最终会伤害安全和效率。你本质上是要求那些专业不是管理基础架构,以及所有内部 CI/CD 流程的人自己做决策,但这不会给他们最好的结果。”
Polan 说,在一个流失率为 20-23% 的市场中,这成为一个令人头疼的问题。
“很快就会有人感到沮丧,意识到他们可以去街对面找到另一份工作,” DeSanto 补充道。“因此,如果您正在建立真正适合他们[开发人员]的东西,他们将更加参与。您将获得更好的公司成果。您希望有更快乐的员工,更快乐的员工也等于更多的收入。”
平台工程是一个看似新的运动,但实际上已经成长了三年,Miniman 表示。在过去的三年中,两个变化因素是远程工作的增加和现在即使是“小商铺”也成为技术公司以保持竞争力,小组表示。仅仅构建一个单体应用并将其放置 20 年已经不够了。
“ 15 , 20 年前,我们实际上构建的东西非常不同,变化的速度和反应能力也不同,” Miniman 说道。“现在我不能再构建一个定制应用并将其放置十年,因为那样做会使我处于竞争劣势。”
Polan 使用“可演化性”一词来描述公司为什么应该拥抱平台工程。虚拟化、5G和面向服务的架构正在创建一个需要灵活性和模块化的开发环境,Polan 说。
她说:“这也将反映在平台团队中...通过将这些任务交给平台团队,我们可以扩展一些解决方案,同时也具备推进事物的灵活性。这给了我更好的选择,使我更加响应迅速,显然给了我更好的投资回报和更好的安全性。”
但也许最大的原因是,开发人员应该拥抱平台工程的原因在于,它减少了当前编程的认知负荷, Miniman 表示。
如果我们能让事情变得简单一些,让开发人员专注于他们的主要角色和他们想要做的事情,那就会使事情变得更容易,”他说。 | https://yylives.cc/2023/05/07/kubecon-panel-how-platform-engineering-benefits-developers/ |
在开发门户中通过 GitOps 实现自服务的基础设施即代码
翻译自 Self-Service Infrastructure as Code in a Dev Portal with GitOps 。
在幕后使用 Terraform 或其他 GitOps 启用黄金路径开发人员 IaC 操作的分步指南。
不久前,GitOps 风靡 DevOps,提供更流畅、更快速的软件交付体验。 GitOps 有很多优势,可以让开发人员、DevOps 和机器(工作流和管道)的生活变得更简单。
然而,这并非一帆风顺,因为 GitOps 要求开发人员熟悉许多 DevOps 实践和专业知识。例如,基础设施即代码。 IaC 是一个完整的专业领域。使用它需要遵守适用的 DevOps 团队标准和语法。
例如,假设开发人员需要为他们正在处理的微服务设置 MongoDB。独立创建 IaC 并向 GitOps 提交 pull request 来处理 Terraform 文件的应用程序可能会让一些开发人员望而生畏。它还需要相当程度的信任。然而,这很难大规模实施,因为并非所有开发人员都具备所需的 DevOps 专业知识。
让开发人员自由使用 IaC 会引发其他问题。编写 Terraform 代码需要了解安全最佳实践,缺乏经验的开发人员可能会在不知不觉中将安全漏洞引入基础架构。
这可能导致数据泄露、数据丢失或其他安全事件。此外,不一致的代码质量也可能是一个问题,因为开发人员可能有不同的编码风格和标准,这使得将来难以维护和更新基础设施。
所有这些都是开发人员体验问题,解决它的新方法是使用内部开发人员门户 (IDP),这是平台工程中面向开发人员的核心工具。开发人员门户通过类似产品的用户界面提供预制的黄金路径,允许开发人员执行从供应测试环境到回滚部署的许多自助服务操作。
让我们探讨一下开发人员如何在 GitOps 的支持下执行基础设施即代码(IaC)的自助操作。在这种情况下,IaC 文件的创建由现有的 GitOps 工作流自动处理。
首先,确定您希望开发人员自助服务的操作。例子是:
创建 S3 存储桶/MongoDB
-
初始化开发人员环境
-
创建一个 AWS 账户
-
这是您可能已经拥有的示例 Terraform 文件,您希望通过内部开发人员门户将其作为自助服务操作提供。
现在我们要创建您希望开发人员在使用自助服务操作时使用的表单。表单(和向导)旨在减少认知负担并提供类似产品的体验。您还可以使用 API 使其更易于使用。无论哪种情况,这都定义了黄金路径,显示对开发人员重要的所有 IaC 元素,并将其余元素隐藏在幕后。这解决了开发人员访问 GitOps 时经常出现的分离问题,其中一些变量用于 DevOps,一些变量用于开发人员,从而为错误创造空间并减慢开发人员的速度。创建 UI 表单时,请考虑您希望为开发人员提供的最简单的体验。在需要的地方添加工具提示,这样就没有问题没有得到解答。
这是一个“添加 DocDB”的例子:
这是我们连接点的地方。
我们从自助服务表单中获取用户输入并将其转化为 IaC 参数。提交表单后,这将自动生成一个 IaC 文件。
为此,我们将为表单提交实现一个侦听器,该侦听器将创建对所选文件的拉取请求。在大多数情况下,DevOps 工程师将是批准该操作的人员。
这是 Pull Request 的一个例子。
内部开发人员门户还包含一个软件目录,它显示的不仅仅是微服务。它包含重要的内容:CI/CD 流、集群、开发环境、管道、部署和任何云。一旦发生自助服务操作,软件目录就会与触发的 GitOps 工作流(Azure Pipeline、Github Workflow 或任何其他处理 IaC apply 的实现)的过程保持同步。
在这里,您可以看到我如何使用 Port 的 GitHub 工作流提供程序来使 Port 的软件目录根据新请求的基础设施进行更新。
您可以从开发人员的角度和平台的角度在此处查看整个流程。
就是这样!您已经成功地实现了一个端到端的流程,让开发人员可以使用现有的 GitOps 实现,通过单击按钮体验将 IaC 添加到他们的应用程序中。
让我们看一下架构以及开发人员门户如何与 GitOps 交互,然后更新软件目录。
用户在开发人员门户中执行自助服务操作。
-
然后将操作存储在 Kafka 的队列中。
-
集中处理程序监听表单提交。在本例中,它是 Port 的 GitHub 应用程序,它既监听表单提交又处理 Terraform 文件生成。
-
一旦 Terraform 文件准备就绪并包含相关参数,它将被提交并创建 pull request 。
-
合并 PR 后,已经提前实现的 GitOps 工作流会触发处理 Terraform apply 的 Azure Pipeline(或任何其他 CI)。
-
作为 Azure Pipeline 的一部分,软件目录数据与特定 IaC 操作的进度保持同步,并根据 Terraform 文件 apply/destroy 操作从目录中添加/修改/删除资源。
-
让我们看看在内部开发人员门户中使用自助 IaC 操作时开发人员的体验。
这是开发者用户填写的表格:
由于 IaC 操作可能需要时间,因此最好向开发人员展示操作的进展情况,如本例所示:
操作完成后,开发人员将在内部开发人员门户中的软件目录中看到 IaC 操作的结果:
这是审计日志。在这里,您可以看到开发人员触发的不同自助服务操作的状态,包括它们的状态、调用它们的初始实体以及它们完成运行时的持续时间。
在这里,我们可以看到自助服务操作的特定调用的元数据。包括用户输入、操作的一般元数据和受影响的目录实体列表(作为操作的结果的新的、更新的或删除的)。
作为调用操作的元数据的一部分,还可以附加相关链接列表。在 IaC 用例中,一个很好的附加链接是指向 pull request 的链接,该 pull request 是使用新的 terraform 定义创建的自助操作及其对基础设施的预期影响。
接下来,您可能希望允许删除数据库或执行第 2 天操作,例如通过自助服务操作增加资源。当然,您可以允许开发人员执行许多其他操作,这完全取决于您。
平台工程是关于创建可重用元素,而 IaC 操作应该是其中的一部分。为了避免认知负荷和入职开发人员使用 GitOps 的问题,内部开发人员门户为开发人员提供了广泛的自助服务功能,他们可以轻松地执行 IaC 操作并相应地更新软件目录。
当开发者门户与底层实现解耦时,开发者将获得一致的体验,而 DevOps 可以改变底层逻辑的实现方式。同时,将自助服务支柱的开发者门户与软件目录“本地化”,而不是将自助服务操作和软件目录作为两个独立的元素来管理,也是很重要的。 | https://yylives.cc/2023/05/07/self-service-infrastructure-as-code-in-a-dev-portal-with-gitops/ |
在 PlatformCon 2023 深入了解平台工程
翻译自 Take a Platform Engineering Deep Dive at PlatformCon 2023 。
虚拟活动提供了紧凑的日程安排,并有机会探索最新的平台工程趋势、解决方案和最佳实践。
备受期待的 PlatformCon 2023 即将到来,伴随着大量的行业炒作,原因不难理解。为期两天的虚拟会议将于 6 月 8 日至 9 日举行,旨在庆祝拥有 15,000 多名成员的平台工程社区,并邀请了众多知名行业演讲者。来自世界各地的数千名平台工程师和从业人员将参加,欢迎他们的是紧凑的时间表,并有机会深入了解最新的平台工程趋势、解决方案和最佳实践。
参加 PlatformCon 2023 的与会者可以通过与专家建立联系并加入充满活力的平台工程师社区来提升他们的平台工程技能,他们都致力于突破界限。参与者可以享受区域启动活动,按照自己的节奏观看演讲,并在 Platform Engineering Slack 频道上进行演讲者问答环节。
完整的会议时间表可在此处获得。与会者将有机会:
与著名的行业演讲者互动,如 OpenCredo 首席执行官/首席技术官 Nicki Watt;Bryan Finster ,Defense Unicorns 的价值流架构师;Stephan Schneider,麦肯锡数字专家助理合伙人; Charity Majors , Honeycomb 首席技术官;和 Team Topologies 的 Manuel Pais 。
-
结识来自世界各地的志同道合的专业人士。
-
从平台工程计划的新见解和新想法中获得灵感。
-
探索多个赛道,聆听顶级现场专家讲述他们的故事。
-
在为期两天的活动中,PlatformCon 2023 将举办一系列引人入胜的演讲,涵盖五个方面:
故事:从业者将分享他们的企业平台构建经验,涵盖从开始到实施和推出的旅程。例如, Adobe 的 Rohan Kapoor 讨论了为 5,000 多名开发人员开发 Adobe 内部开发人员平台,解决挑战,生产力测量以及从最近推出的 CI/CD 产品中学习。
技术:本专题将深入探讨开发人员平台的技术方面。期待来自 Humanitec 的 Susa Tünker 等演讲者的演讲,她将讨论消除环境之间的配置漂移,以及使用各种工具(如 Kubernetes ,基础设施即代码,服务目录和 GitOps )解决问题的会议。
蓝图:本专题的演讲者将介绍经过验证的平台蓝图,包括麦肯锡的 Mike Gatto 和 Stephan Schneider ,他们将探索通过参考架构简化开发人员平台设计。与会者可以期待其他演讲,以突出关键设计注意事项和开发人员平台工具的有效集成。
文化:专注于工程师为工程师构建开发人员平台,该课程将研究平台工程的文化方面。将讨论的主题包括产品管理以及平台工程、DevOps 和站点 SRE 之间的关系。来自 OpenCredo 的 Nicki Watt 将解决阻碍创建伟大平台作为产品的绊脚石,并提供反作用的解决方案。
影响:此课程将探讨平台工程计划的商业价值和影响。像 Gartner 的 Manjunath Bhat 这样的分析师将提供价值故事,以展示平台工程如何加速业务成果,而其他从业者将讨论确保高管支持的策略。
对于任何希望提升平台工程技能的人来说,这是一个很好的机会来学习、交流并从行业中最好的人那里获得灵感。立即注册以获取新的演讲者更新、参与机会以及有关面对面和虚拟聚会的详细信息。 | https://yylives.cc/2023/05/27/take-a-platform-engineering-deep-dive-at-platformcon-2023/ |
如何将自己的平台经营成产品工坊
译自 How to Host Your Own Platform as a Product Workshop 。
您是否在为采用平台工程而苦苦挣扎?像产品工厂一样去尝试平台,协调利益相关者并改变思维方式。
通常,当组织开始谈论平台工程时,这不一定意味着要从零开始。毕竟,大多数公司已经拥有某种形式的平台。可能因为它是一个由上至下的举措,运营部门通过部门竖井扔出的东西,所以采用率较低。
当组织采用平台即产品策略时,这种情况应该会改变。这种做法涵盖了平台工程的社会技术方面,它考虑了人员、流程和技术的交集——而不仅仅是后者。这种思维方式的转变首先不是专注于构建内部功能,而是专注于为内部开发人员客户提供服务和互动。也许最重要的是,在科技行业裁员盛行的时期,这种做法侧重于学习使用平台技术解决复杂问题——所以不要先考虑技术,而是先考虑问题。
Anna Ciula 和 Cansu Kavili Örnek 与红帽的客户合作,帮助他们构建采用这种平台工程思维的适用型平台。红帽的开放创新实验室团队开发并开源了一项半天的平台即产品工坊。在 WTF is SRE 的活动中,该团队联络负责人 Ciula 和架构师 Cavil Örnek 回顾了他们过去两年利用这项研讨会帮助团队最大限度地利用其平台的经验。
你可能已经读过 DevOps 已死。虽然是一个吸引人的标题,但平台工程最终被视为 DevOps 的交付机制。
“我看到的是,平台工程是 DevOps 实施的自然延伸或自然的下一步 - 就像 DevOps 的成熟版本一样。因为技术变得非常复杂,而且有这种开销,开发人员每天都需要新的东西出现,“ Kavali Örnek 说。“平台工程为他们提供一些通用的、可重用的功能,以减轻他们的认知负担,这样他们就可以真正专注于他们喜欢做的事情——业务应用程序、开发软件。
她担心,随着 DevOps 已死的观念,职位会改变,但工作方式将保持不变。为了解决 Puppet 的平台工程状态报告中强调的挑战 - 包括周期时间太慢,平台团队采用的阻力以及缺乏沟通 - 这些团队必须采用平台即产品的思维方式,这是团队拓扑创造的一个术语。
“将这种现代的产品管理思维应用于平台的构建,”她定义平台即产品,承认这是“从关注平台的底层技术转向关注实际用户和开发者需求,并在此基础上构建平台,这是一个巨大而困难的转变。”
Ciula 解释说,平台即产品工坊的设计是为了响应红帽客户共同面临的挑战。“我们看到开发人员因运维部门在他们脚下摆放各种障碍而感到完全沮丧。然后,运维人员因开发人员称他们愚蠢,不知如何使用平台而感到完全沮丧。”这些反应都导致运维部门通过命令和控制的措施要求使用平台,以及她所说的“影子 IT 反叛者在信用卡上创建自己的集群”。
与所有平台工程一样,这个工坊希望创建一种通用语言,让每个人都在同一页面上,所有利益相关者都接受平台即产品思维方式的好处。
只有所有相关者都参与其中,您的平台即产品工坊才有用。这不仅包括用户和客户,还包括 Ciula 称为影响者的合规与安全团队。正如我们之前写的,平台工程抽象出 Syntasso 的 Abigail Bangser 所说的“非差异化但并非不重要的工作”,以便应用团队能够更快地产生业务价值。
在简要介绍之后,这个工坊让所有这些利益相关者优先考虑您在平台工程成功方面面临的挑战,包括:
开发人员认知负担高
-
开发人员不信任也不采用该平台
-
糟糕的开发人员体验
-
客户正在遭受糟糕的服务
-
平台太贵了
-
平台太慢,无法更改
-
与它的名字相反,DevOps 主要关注运营,而这个工坊则更多地强调了开发人员体验和最终客户体验,并将整个平台计划与业务联系起来。
“这通常是一个非常非常有帮助的讨论,” Ciula 保证,但是,特别是在受监管的环境中,她警告说,“它往往会变得激烈,因为人们对更重要的东西有不同的看法。
这就是为什么你应该留出足够的时间让每个人都专注于最大的问题,而不是让谈话脱轨。
接下来,您分解虚拟的或非常粘性的便利贴,并作为一个组进行澄清:
什么是平台?(这是一个统一的管理控制台。)
-
什么不是平台?(不仅仅是 Kubernetes。)
-
平台有什么作用?
-
平台不应该做什么?(它不是支持所有边缘情况的包罗万象。)
-
Kavali Örnek 说,所有利益相关者都在房间里,这一点至关重要,这样你就不会只有运维视图或开发视图——任何从该平台中受益的人都应该感到被代表。
“这有助于我们围绕这个平台的外观以及这个平台将负责的内容划定界限,”她说。“对于每个人来说,了解这个平台是什么以及我们试图解决什么样的问题非常重要。
“通常,这里的每个人都知道产品是什么,它正在解决问题或是对需求的回应,” Ciula 说。但重要的是要重申“它必须是可行的。它必须在技术上可行。它必须是可取的。
这依赖于每个人都理解功能团队和授权产品团队之间的区别——平台工程师将解决问题,但不一定实施解决方案。
“授权产品团队被交给了要解决的问题,而不是要实施的解决方案,”她说。
这使团队能够将此产品镜头应用于具有明显业务倾斜的平台。大多数情况下,目标包括减少:上市时间、运营负担和/或开发人员认知负担。
“它应该为开发人员构建,与开发人员一起响应他们的基本需求,” Ciula 说,“显然它需要在技术上可行。
她将此视为一个“啊哈”时刻,她说:“我们的许多客户都在说‘天哪!实际上没有人在这样做。我们实际上没有一个平台产品经理,其工作就是确保我们为业务做点什么。”
此外,她收到的反馈是,平台团队并没有真正考虑开发人员和他们需要的服务,只是教育他们如何使用平台。
将平台视为产品的第一步,而不仅仅是另一个自上而下的瀑布计划,就是拥有产品 backlog 。
“在 backlog 中,你不只是把关于构建和维护平台的事情放在一起,” Ciula 说。内部营销同样重要:“你必须考虑一些事情,比如传播你的产品,让人们更想要它。
这不仅有助于为开发人员创造透明度,而且一旦他们得到平台的消息,请求就会涌入。 backlog 有助于管理内部用户的期望。
“我们希望开发者使用我们的平台。我们不想让开发者的生活变得苦恼。这种传道般的热情和对开发者真实需求的理解是至关重要的。” Kavali Örnek 说。她指出 DevOps 的三大支柱之一,并强调“与开发者进行这种对话和反馈循环真的很重要。”
接下来,工坊将团队拓扑的产品四个特征应用于平台:
可选使用
-
根据用户需求精心设计和策划
-
为用户简化某些内容
-
与科技一起发展
-
对于这些要点中的每一点,问问自己,这能说是你目前的平台吗?
当然,尤其在受监管的环境中, Kavali Örnek 也听到一些对选择权的反对意见。如果法规和安全性不可选,那么这些意见也许合理。但是,这个练习的真正目的是向所有利益相关者展示:“你应该以开发者想要使用的方式构建你的平台,”她解释说。“它应该是如此吸引人,以致于开发者不想寻找任何其他替代方案。他们想使用你的平台。”
否则,您将面临她所谓的空集群问题,其中有一些应用程序位于其之上,但您的大多数应用程序团队都不支持您的平台。
“这个平台是可选的。我们必须把它做得非常好,我们将倾听开发者的心声,他们会来使用它,并希望在内部为我们进行推广,” Kavali Örnek 说,为平台团队设定了理想的目标。
这个平台产品研讨会的第三个模块围绕衡量成功进行。通常,在进行这次工坊时, Red Hat 团队发现人们只是简单地衡量速度、故事点和缺陷数量, Ciula 认为这有点令人失望。
虽然 DORA 指标——部署频率、变更前置时间、平均恢复时间和变更失败率——被视为行业标准,但她的客户很少应用这些指标。这意味着 1 5分钟模块的大部分内容都只是一个愿望。
“我们想向他们重申,平台应该为业务做点什么,” Ciula 说。“该平台不仅适用于技术。它应该提供一些可以对业务产生可衡量结果的东西。
除 DORA 指标外,这个工坊还鼓励考虑平台采用率、开发者上手时间、开发者净表现评分等指标。“我们希望给他们留下一些思考的食物,这样一旦他们认真对待这个平台,他们就会接受这种平台即产品的方法,他们就会正确地做到这一点。
虽然本次研讨会还有其他模块,但也许最重要的是在后续步骤中结束,以便参与者准备好采取行动。
Red Hat 围绕迭代交付周期帮助创建了一个开放式实践库,具有更紧密的反馈循环,就像横向八字形或无穷大符号一样。这个莫比乌斯环从DevOps,敏捷,设计思维,影响映射和以人为本的设计等中提取,因此团队可以为每种情况选择相关实践:
你为什么要解决问题?
-
你在为谁解决它?
-
正在解决哪些问题?
-
如何解决这些问题?
-
然后,他们可以设计并实施他们认为可以解决结果的实验。这是一个持续的发现和交付之旅。Ciula 解释说,在某种程度上,这是为了确保平台团队不会只停留在交付功能而没有花时间重新审视发现阶段。
最后, Kavali Örnek 认为,成功的平台即产品战略取决于组织的心理安全,这就是为什么莫比乌斯循环包含平台工程的社会技术实践的技术和文化实践。 | https://yylives.cc/2023/06/01/how-to-host-your-own-platform-as-a-product-workshop/ |
内部开发者平台的 7 个核心要素
翻译自 7 Core Elements of an Internal Developer Platform 。与本文相比,译者团队用的工具是 Gitea, Backstage 和 Jenkins 。
深入理解构建可以让开发者能够自主工作的 IDP 所需的技术栈和参考架构。
构建内部开发者平台需要什么?有哪些工具和平台可以使其工作?这篇文章将讨论建立一个完全可操作的内部开发者平台所需的架构和工具。要查看设置平台的实际步骤,请观看此视频。
平台工程的首要目标是推动开发者的自主性。如果开发者需要数据库,则应该有一种机制来获取它,无论该人是数据库管理员还是 Node.js 开发者。如果开发者需要在 Kubernetes 中管理应用程序,那么这个人不需要花费数年时间试图了解 Kubernetes 的工作原理。所有这些操作都应该易于完成。
开发者应该能够通过定义简单的清单或使用 Web UI 来完成他们需要的东西。我们希望使所有开发者都能使用有助于他们获得所需内容的服务。专家(平台工程师)将在内部开发者门户中创建这些服务,用户将在其图形用户界面中或通过直接编写清单并将其推送到 git 来使用它们。
一个内部开发者平台需要几个组件才能完全运行。对于每个组件,我们将推荐一个工具,但它们可以用类似的工具替换。核心思想是描绘出构建该平台所需的功能:
一个控制平面:平台需要一个控制平面来负责管理所有资源,无论它们是在 Kubernetes 集群还是其他地方运行的应用程序,或者基础设施或服务是否在 Amazon Web Services (AWS)、Azure、Google Cloud 或其他任何地方。我们在这里推荐的工具是 Crossplane 。
-
一个控制平面接口:这将使每个人都能与控制平面交互,并在适当的抽象级别管理资源。我们在这里推荐的工具是 Crossplane Compositions 。
-
Git:所需的状态将存储在 git 中,因此我们必须在组合中添加一个 GitOps 工具。它的工作是将我们放入 git 的任何内容与控制平面集群同步。我们在这里推荐的工具是Argo CD。
-
数据库和 schema 管理:鉴于这种状态是不可避免的,我们也需要数据库。这些数据库将由控制平面管理,但为了正常工作,我们还需要一种方法来管理这些数据库内的 schema 。我们在这里推荐的工具是 SchemaHero 。
-
Secrets 管理器:对于我们无法存储在 git 中的任何 Secrets 信息,我们需要一种方法来管理 Secrets 管理器中的机密。这些 Secrets 可以位于任何 Secrets 管理器中。我们推荐的从中提取 Secrets 的工具是 External Secrets Operator(ESO)。
-
内部开发者门户/图形用户界面:如果用户不想将清单直接推送到 git,我们应该为他们提供一个用户界面,使他们能够查看正在运行的内容以及执行将创建新资源并将其存储在 git 中的进程。我们在这里推荐的工具是 Port 。
-
CI/CD pipelines:最后,我们需要 pipelines 来执行一次性操作,例如基于模板创建新存储库、使用清单的新版本更改生成映像等。我们在这里推荐的工具是 GitHub Actions。
-
设置将需要一些额外的工具,但上面的列表是必须的。
下图显示了每个元素如何相互交互。在阅读本文时,您可以将其用作参考。
让我们检查设置中每个层的角色:
让我们来谈谈控制平面:我们需要一个单一的 API 作为入口点。这是内部开发者平台的主要交互点。反过来,它将管理各种资源,无论资源在何处。我们可以使用 Crossplane 及其 providers ,这使我们不仅可以管理 Kubernetes ,还可以管理 AWS, Google Cloud, Azure 或其他类型的资源。我们将使用 Kubectl 获取自定义资源定义(CRD),这些定义将在超大规模集群中创建部署、服务并管理数据库等。
然而,仅此还不足以构建一个完整的内部开发者平台。一个应用程序很容易由数十个资源组成。基础设施可能会复杂得多。最重要的是,所有这些底层资源的抽象层次对于不是 Kubernetes 、 AWS 或 Google Cloud 专家的人来说不够友好。我们需要更加用户友好的东西。
控制平面接口可以在 100% GitOps 时充当平台 API。不应将其与充当图形用户界面的内部开发者门户混淆。为此,我们可以使用 Crossplane Compositions 。
我们构建的平台的用户需要什么样的抽象级别?原则是,我们应该隐藏或抽象化用户在使用内部开发者平台时真正不关心的任何内容。例如,他们可能不关心子网或数据库存储。合适的抽象级别取决于平台的实际用途,并且会因组织之间的不同而异。您需要发现如何最好地为您的客户和组织中的其他人提供服务。
Crossplane Compositions 使我们能够创建抽象,从而简化不同类型应用程序的管理。接下来,我们可能不希望任何人直接与集群或控制平面交互。人们不应该直接向控制平面发送请求,而应该将他们想要的状态存储在 git 中。
不应允许通过直接与控制平面通信来更改资源状态,因为没有人会知道谁在何时更改了什么。相反,我们应该将所需的状态推送到 git 中,并选择性地通过 pull request 进行审查。如果我们将 GitOps 工具插入平台,则所需状态将与控制平面同步,进而将其转换为实际状态。
这是一种更安全的方法,因为它不允许直接访问控制平面,并且还会跟踪所需的状态。我建议使用 Argo CD 执行此操作,但 Flux 和其他解决方案也一样好。
数据库需要 Schema 。它们因应用程序而异。为了完成我们的内部开发者平台,我们需要解决如何管理 Schema 的问题,最好将其作为存储在 git 中的应用程序定义的一部分。有许多方法可以管理模式,但只有几种方法可以让我们以适合 git 模型的方式指定模式。复杂的是, GitOps 工具只能与 Kubernetes 资源一起工作,这意味着 Schema 也应定义为 Kubernetes 资源。这要求我们使用 CRD 扩展 Kubernetes API ,从而可以将 Schema 定义为 Kubernetes 资源。我推荐使用 SchemaHero 来实现此目的。
有些信息不应该存储在 git 中。在 git 中拥有 Secret 等机密信息很容易导致违规。相反,我们可能希望将它们存储在像 HashiCorp Vault 这样的 Secret 管理器中,或者由您使用的任何超大规模提供商提供的解决方案中。尽管如此,这些 Secret 仍需要到达控制平面,以便其中的进程可以使用外部 API 或访问服务(例如数据库)进行身份验证。我建议为此使用 External Secrets Operator(ESO)。
内部开发者平台需要一个用户界面来补充我们迄今为止建立的一切。这是内部开发者门户网站。它同时提供人员可以使用的服务目录,并允许人员与平台进行交互以管理资源。
以及开发者执行我们希望他们自主使用的操作的界面。具体来说,我们需要一种方法来初始化一个过程,该过程将为应用程序创建新的存储库、添加示例代码、为数据库和其他依赖项提供清单、创建 CICD 管道等。
对于此设置,我们从 Port 的 Kubernetes 目录模板开始。
然后,我们将添加两个与集群蓝图相关的附加蓝图,即后端应用和环境:
最后,我们需要 Pipelines 。它们是拼图的最后一块。
即使我们使用 GitOps 将实际状态同步到所需状态,我们也需要一次性操作的 Pipelines ,每次提交只应执行一次。这些可能是构建二进制文件、运行测试、构建和推送容器镜像等的步骤。
从用户(开发者)的角度来看,只需单击 Web UI 中的按钮,或者通过定义一个非常简单的清单并将其推送到 git 即可创建新应用程序。之后,可以使用同一接口来观察有关该应用程序和相应依赖项的所有相关信息。
然而,在幕后,流程如下。
用户与 Web UI(端口)或直接与 git 交互。在这种情况下,内部开发者门户的工作是触发将创建所有必要资源的操作。
-
创建所有相关资源是由 GitHub Actions 等 pipeline 完成的工作。反过来,它创建一个包含所有相关文件的新仓库,如源代码、管道、应用清单等。
-
通过将变更推送到应用程序仓库(无论是由于前面的操作还是后来对代码进行更改),会触发特定于应用程序的 pipeline(GitHub Actions),该 pipeline 至少会构建容器镜像,将其推送到镜像仓库,并更新管理仓库中的清单,该仓库由 Argo CD 或 Flux 等 GitOps 工具监视。
-
GitOps 工具检测对管理存储库的更改,并将其与控制平面集群中的资源同步。
-
控制平面集群中的资源由相应的控制器(Crossplane)获取,后者反过来会创建应用程序资源(在其他 Kubernetes 集群中或作为 AWS Lambda、Azure Container Apps 或 Google Cloud Run 等超大规模服务)以及依赖资源,如数据库(自我管理或作为超大规模服务)。
- | https://yylives.cc/2023/06/07/7-core-elements-of-an-internal-developer-platform/ |
Kubernetes 开发者门户的“运行服务”蓝图
翻译自 ‘Running Service’ Blueprint for a Kubernetes Developer Portal 。
运行服务提供运行时数据,以便我们可以在环境、部署和状态的背景下理解一个服务。
内部开发者门户存在的目的是为开发者提供类似产品的体验,减少认知负荷,让开发者能够保持工作状态并提高生产力。这些门户由平台工程团队创建,旨在帮助开发者在内部规范和质量标准的框架内进行自助服务。
通过门户,开发者可以简单轻松地设置临时环境、重新启动 Kubernetes 集群、重新部署镜像标签或创建微服务框架。平台工程团队将使这些操作在平台上可重用,而内部开发者门户将充当与平台的接口,并在软件目录中反映这些变化。
然而,内部开发者门户不仅仅是松散耦合的类产品用户界面,使开发者的工作更加轻松。内部开发者门户还具有宝贵的软件目录,其中包括您的工程中与应用程序相关的一切,从 CI/CD 元数据到云资源、Kubernetes、服务等等。
软件目录的价值远远超出了它所包含的元数据(这也非常有用),它远不止于显示谁拥有一个服务或其日志位于何处。除了作为唯一的真相来源外,它的价值还在于它提供的上下文,特别是在运行时数据的情况下。它可以快速回答诸如“在环境 y 中,服务 x 的当前运行版本是什么?”这样的问题,即使在包含功能标志、金丝雀或蓝/绿部署的情况下也可以如此。
本文将重点介绍上下文和运行时数据。我们将提供一个关于 Kubernetes 对象的内部开发者门户的详细示例。然后,我们将展示软件目录的威力,以及它如何支持工作流自动化——从时间到终止(TTL),到服务锁定,以及在服务降级时触发自动化操作等等——这是由于它的元数据和运行时数据的结合所带来的结果。
软件目录需要一个数据模型,在开始之前,您需要定义它。这并不复杂,但您需要一个标识软件目录内部内容的模式。软件目录需要无倾向性且完全灵活,所以最好的选择是让您自己定义数据模型。
在 Port 中,某种实体(比如一个K8s集群)的模式被称为 Blueprint 。实际的实体(在这种情况下就是实际的集群)被称为 entity 。在 Spotify 的 backstage 中, Blueprint 被称为 “kind” 。
Backstage 是一款领先的开源内部开发者门户,也是第三受欢迎的云原生计算基金会(CNCF)项目。他们建议使用一种包含六个 Blueprint(或 kind) 的特定数据模型。
组件(Component)
-
API
-
资源(Resource)
-
系统(System)
-
领域(Domain)
-
组(Group)
-
正如 Spotify 的高级工程师 Renato Kalman 和技术工程师 Johan Wallin 在这里解释的那样,在设计 Backstage 时,他们面临着一个软件可视化的挑战:他们需要一个“标准化的软件元数据模型,以创建一个用于沟通软件架构的共同语言”。他们提出的是 C4 模型。您可以在这里看到 Backstage C4 模型的一个示例。
但是这个数据模型忽略了一个重点:即“running service” Blueprint(运行服务模型)。
您的代码并不是您的应用程序。存在于您的代码库或容器镜像中的代码并不是应用程序本身。在现实生活中,您的应用程序存在于某个环境中,并在一系列工具和依赖项的生态系统中提供某种服务(API/其他服务/用户)。它的行为取决于它所处的环境。
"running service" Blueprint,或者有时也称为“在环境中的服务”,反映了一个事实:单个“服务”通常部署在许多不同的环境中。服务可以存在于各种环境中,包括临时环境、开发环境和生产环境。特别是在单租户架构的情况下,服务还可以存在于许多不同的客户环境中。
服务存在于许多不同环境中这个简单事实在 Port 的“running service” Blueprint 中得到了体现。"running service" 实体使我们能够看到服务在“野外”中的情况——在实际存在的特定环境中。只有这样,我们才能获得正确和可操作的上下文,理解正在发生的事情。
坚持使用静态的软件目录和仅包含元数据而不包含运行时数据的静态数据模型并不能提供我们所需的上下文。只有查看运行中的微服务的真实实例时,才能获得洞察力。
有人认为,Kubernetes 的增长是推动平台工程的核心因素之一。Kubernetes 的复杂性、其从业者所需的专业知识以及许多开发人员转向云原生开发的最近趋势,都增加了开发人员和 DevOps 之间的负担和摩擦。
内部开发者门户为开发人员提供了对 Kubernetes 的抽象。它们通过显示相关数据来帮助开发人员理解 Kubernetes ,并支持开发人员自助操作。确保这些 Kubernetes 内部开发者平台包括以下内容非常重要:
在软件目录中包含所有的 Kubernetes 对象,而不仅仅是微服务
-
支持多集群
-
支持CRD(自定义资源定义)
-
让我们看看如何为 Kubernetes 内部开发者门户设置 blueprints(数据模型),以及何时以及如何将运行服务 Blueprint 包含在其中。
以下是 Kubernetes 的基本 blueprints(数据模型):
工作负载是 Kubernetes 中的“运行服务”。它是指在集群中运行的 stateful sets, deployments, daemon sets 和任何其他工作负载的通用名称。
集群代表基础设施中的一个 Kubernetes 集群,提供了 Kubernetes 集群中不同对象之间的高级连接。
节点是托管和提供 Kubernetes 集群中不同应用程序和微服务运行时的服务器。
-
命名空间旨在将同一个 Kubernetes 集群中的许多资源分组在一起,让您可以查看托管在同一个 Kubernetes 集群中的完整环境的连接方式。
-
工作负载旨在成为为开发人员提供关于其应用程序状态最相关上下文的焦点。工作负载实体向开发人员提供了关于其不同工作负载的抽象视图。开发人员可以查看工作负载的当前状态,例如实例数量和健康状况。通过向上追溯依赖树,开发人员可以查看与其自身工作负载并行运行的其他应用程序和微服务,从而了解是否存在连接或功能问题。
-
Pod 是工作负载的一个实例,它使我们能够了解构成完整工作负载的部分的健康状况,并理解在工作负载提供的服务可用性方面是否存在特定问题。
-
我们已经看到,无论我们将其称为“运行服务”、“工作负载”或者字面上的“环境中的服务”,运行时 Blueprint都非常有用。它反映了一个单一服务通常同时存在于多个环境(如开发、暂存等)的现实情况。它还可以部署在许多不同的客户环境中。运行服务提供了运行时数据,使我们能够在环境和部署的上下文中理解服务,以及从正常运行时间到状态的实时信息。
您可以免费在 getport.io 上使用Port,或者在此处查看一个完全填充的Port演示。 | https://yylives.cc/2023/06/18/running-service-blueprint-for-a-kubernetes-developer-portal/ |
End of preview. Expand
in Dataset Viewer.
README.md exists but content is empty.
- Downloads last month
- 33