加入收藏 | 设为首页 | 会员中心 | 我要投稿 通化站长网 (https://www.0435zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

后疫情时代CIO的首要任务

发布时间:2021-01-31 15:35:14 所属栏目:动态 来源:互联网
导读:在组织使用更多的开源的原因中,消除供应商锁定是一个重要原因。 我们发现 40% 的受访者将这视为主要原因。用开源软件取代昂贵的专有软件,可以确保组织更加灵活,避免对供应商的依赖。同样,规模较大的组织也倾向于这个原因。在拥有 1000 名以上员工的组织

在组织使用更多的开源的原因中,消除供应商锁定是一个重要原因。 我们发现 40% 的受访者将这视为主要原因。用开源软件取代昂贵的专有软件,可以确保组织更加灵活,避免对供应商的依赖。同样,规模较大的组织也倾向于这个原因。在拥有 1000 名以上员工的组织中,有 50% 的组织将此作为主要优势。

增加开发人员的满意度是使用更多开源的另一个原因,有 31% 的组织提到了这一点。 随着企业对人才的激烈竞争,他们了解确保开发人员在工作中和使用的工具中感到快乐的价值。调查发现,开发人员使用的前三种语言是 JavaScript(78%)、Python(52%)和 Java(41%)。

此外,随着开源使用量的增加,83% 的组织继续对其贡献,近一半的组织制定了管理贡献的政策。 这些政策包括:在工作时间对组织使用但不赞助或管理的项目的贡献、对他们赞助或管理的项目的贡献、在个人时间对与工作无关的(个人)项目的贡献、以及在工作时间对与工作无关的(个人)项目的贡献。

虽然向开源的长期迁移仍在继续,但很明显,COVID-19 的影响可能正在加速这一进程,组织继续从使用和贡献中获得更深层次的价值。

 

Tidelift 的 第三次开源管理调查 发现,企业在大流行期间正在转向开源,44% 的组织报告他们将增加使用开源进行应用开发。

我们以前见过类似现象。在以前的经济衰退中,组织转向开源 以节省成本 ,并因 其它一些转型收益 而留下来。我们想了解哪些长期收益对不同规模的组织最有帮助。以下是我们发现的摘要。

开源正在推动成本和时间的节约,同时提高效率。68% 的组织提到的一个关键驱动力是节约资金和开发时间,因为使用开源减少了开发人员从头开始编写新代码的时间。近半数(48%)报告称,它提高了应用开发和维护效率。拥有超过 1000 名员工的组织更有可能将此作为鼓励使用更多开源的原因(61%,而少于 1000 人的组织为 41%)。
 

一种策略在于创建一种在模型和数据的大小与数据传输成本之间取得平衡的体系结构。对于大型模型,留在云中更有意义。有多种方法可以减小模型大小以帮助解决问题,但是,如果要处理非常大的模型,则可能需要在云中运行它。

在其他情况下,当在边缘生成大量数据时,在本地更新模型,然后将其子集反馈到云中以进行进一步优化可能更有意义。在对敏感数据进行推理时,开发人员还需要考虑一些隐私问题。例如,如果开发人员希望通过手机摄像头检测中风的证据,则应用程序可能需要在本地处理数据以确保符合HIPAA。

框架将不断发展,以提供更多有关在哪里进行培训以及如何提高重用性的选择。例如,TensorFlow.js使用WebGL和WebAssembly在浏览器中运行(有益于隐私,低延迟,利用桌面或移动GPU资源等),但也可以加载分片的,缓存的云训练模型版本。模型交换格式(例如,开放神经网络交换)也可以增加模型在不同环境中的流动性。Sletten建议探索像LLVM这样的工具,这是一个开源编译器基础结构项目,以使从应用程序所运行的环境中抽象出应用程序变得更加容易。

需要适应

将更多的AI从云转移到边缘的关键挑战之一是,能够在边缘AI芯片中高效运行的神经网络架构。聪明的行车记录仪供应商。

通用计算平台(如在云服务器中找到的平台)可以运行任何网络体系结构。在边缘AI中这变得更加困难。架构和训练有素的模型必须经过修改才能在边缘的AI芯片组上运行。

这是一个巨大的挑战,因为用户可能会从高性能的移动网络驶向盲区,而无论如何都希望获得良好的性能。在推理期间,没有足够的网络带宽将所有数据从边缘移动到云,但是用例要求将本地推理输出进行全局汇总。边缘AI可以运行神经网络,以帮助过滤必须发送到云以进行进一步AI处理的数据。

在其他情况下,云AI训练可能会导致神经网络模型具有过多的层次,无法在边缘设备上有效运行。在这些情况下,边缘AI可以运行较轻的神经网络,从而创建输入的中间表示形式,该中间表示被压缩得更多,因此可以发送到云中以进行进一步的AI处理。在训练期间,边缘和云AI可以以混合模式运行,以提供类似于“虚拟主动学习”的功能,在这种情况下,边缘AI筛选大量数据并“教导”云AI。

边缘AI芯片组中受支持的神经网络架构的类型是有限的,并且通常比在云中可以实现的功能落后几个月。解决这些局限性的一种有用方法是使用编译器工具链和堆栈,例如Apache TVM,它们有助于将模型从一个平台移植到另一个平台。

另一种方法是使用已知可以在边缘AI中很好地工作的网络体系结构,并直接为目标平台训练它们。他发现,鉴于训练数据的数量和种类足够多,就绝对性能而言,这种方法通常可以胜过跨平台编译器方法。但是,它还需要在培训期间以及预处理和后期处理中进行一些手工操作。

边缘和云AI之间的常见折衷

开发人员需要在云和边缘AI之间进行权衡的一些最常见的折衷方案包括:

  • 处理能力:边缘计算设备通常功能较弱,并且难以更换或升级。
  • 延迟:云计算速度很快,但尚未为驾车或工业控制等实时应用做好准备。
  • 能耗:大多数设计人员通常不必像对待边缘那样考虑云的能耗约束。
  • 连通性:当连通性下降时,像自动驾驶汽车这样的安全关键服务将无法停止工作,这会将实时AI驱动的决策的处理推向边缘。 
  • 安全性:用于驱动身份验证和处理敏感信息(例如指纹或病历)的AI服务通常最好是在本地出于安全考虑而完成。即使部署了非常强大的云安全性,用户从边缘处理中获得更好的隐私感也可能是重要的考虑因素。

(编辑:通化站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!