全国统一服务电话 400-108-0268

关于霄云科技

告别调图卡顿!PACS影像调阅进入“高铁”时代!

发布时间:2021-11-12 来源:本站

PACS调图卡顿成为常态

医疗影像检查技术发展日新月异,设备分辨率越来越高。CT检查设备从早期的64排已经发展到256排;人工智能图像识别广泛使用,扫描切层厚度从5mm 减小到1mm。为了给患者提供更好的服务,医院不断引入新的检查设备。这些因素使得PACS影像数据量急速增加。



PACS影像数据在飞速增长,但是存储设备的性能并没有提高;不仅没有提高,还在下降!存储设备中的数据越多,读取的速度越慢。

为了解决PACS影像调图性能的问题,医院、PACS厂商、存储设备厂商十八般武艺轮番上阵,但基本思路都是把存储分为在线、近线、离线三层。最近几个月的热数据保存到在线存储,通常为FC-SAN存储,硬件配置高,数据量少,保证设备性能达到良好;近线存储用中低端NAS存储,离线存储使用磁盘库……

但是,由于PACS数据量的增长,性能问题越来越严重,图片调阅卡顿成为常态;数据要不断迁移;调取历史影像极为不便……


PACS影像调阅进入“高铁”时代

在过去的10年里,存储技术发展获得突破,分布式存储技术日渐成熟,为PACS影像存储提供了革新的方案。

霄云科技研发的碧海分布式存储系统,采用一系列创新技术,突破了传统集中式存储的性能和容量瓶颈;针对PACS影像的海量小文件特征进行深度优化,彻底解决PACS影像数据存储的挑战:

1、PACS影像调图速度提高到300幅/秒!提升3~10倍!

2、1000幅的CT图像,只需要3秒就可以调取完成!调图再也不卡顿!

3、只需一套存储,数据全部在线高速调取,再也不要做数据迁移了!

4、很多医生电脑同时访问时会不会变慢?

碧海存储可以支持高达10000个并发连接,小文件读取总吞吐率超过1GB/s,可以保证医院工作高峰期间几百台电脑同时高速调阅;

5、以后数据量增多时会不会变慢?

大型3甲医院每年生产的PACS文件数为2亿左右。碧海存储写入100亿文件,读写性能衰减小于10%!


与其他存储对比

对比传统存储和开源软件类存储,碧海分布式存储有以下核心优势:

可扩展性不同

传统存储的性能随容量增加而下降;碧海分布式存储的性能随容量增加而提升。

▲可扩展性



性能变化趋势不同

传统存储随着文件数量的增长性能下降,可管理文件数在亿级;

Ceph在文件数量达到10亿时性能下降75%;

碧海存储在文件数量达到100亿级时性能下降小于10%。


▲文件数量与性能


技术秘

碧海分布式存储系统的IO路径做了全面优化,才获得良好的性能。最重要的技术点包括:

1、分布式架构, 将数据管理的负载均衡分布到很多个存储节点上,存储节点之间松耦合。增加存储节点,容量和性能同步提升;

2、采用分布式方式管理元数据;

3、针对PACS影像的小文件特征进行深度优化,实时聚合后写入磁盘,减少了元数据管理负载,也减少了磁盘寻道次数;

4、取消传统RAID,磁盘独立并发访问,释放磁盘IOPS性能;

5、使用异步编程模型,支持更高的并发连接数和并发IO,而且连接数增多时性能不下降;

6、自主研发,不基于开源软件,掌握核心技术,产品稳定有保障。


成功案例

上海市胸科医院是国内胸外科医院,每年手术量达到18000例。每天CT检查量超过1000例,核磁MRI检查超过100例。由于所有患者都需要定期做CT检查,因此PACS数据量很大,每年达到80TB,对阅片调阅性能要求很高。

为了更好地支持一线医生的工作,上海市胸科医院信息科不断探索引进新的先进技术。2019年对碧海分布式存储进行了1年性能和可靠性测试,2020年正式上线,2021年初扩容,目前在线数据量达到400T,文件数量接近9亿。

2021年4月,上海市软件测评中心在医院现场对PACS影像调图性能进行了评测,结果如下:




关键词标签:海量存储 文件存储 分布式存储 国产存储 私有云 企业级存储 软件定义存储

返回列表
上一篇:医疗PACS影像数据,是否适合上云?
下一篇:如何解决医疗PACS存储挑战?