选购制氧机要注意哪些问题 ?上海市质标院提示******
中新网1月8日电 据“上海市场监管”微信公众号8日消息 ,最近,制氧机的抢购热潮引起了社会关注。这种能够承担居家供氧、降低“沉默性缺氧” 的医疗器械,到底适合哪些人群 ?选购时应该注意哪些问题 ?
什么 是制氧机?
据国家药品监督管理局官网 ,制氧机又称为小型分子筛制氧机、医用分子筛制氧机、便携式制氧机等,其基本工作原理 是通过变压吸附(PSA)原理,以空气作为原材料,不需要任何添加剂,接通电源后吸附空气中的氮气及其他气体 ,从空气中分离出纯度较高的氧气(93%±3%)。
制氧机一般由制氧主机 、流量计、湿化器 、氧浓度状态指示器 ,其中氧浓度状态指示器可以在氧浓度低于82%时 ,发出报警 ,避免使用者吸入不符合氧浓度要求的气体 。
制氧机属于医疗器械吗?
众所周知 ,我国对医疗器械按照风险程度实行分类管理 。
依据《中国医疗器械产品分类目录》,制氧机目前在我国属于二类医疗器械,需要由国家药品管理部门颁发的《医疗器械注册证》后方可上市销售 。其生产商需要获得药监部门颁发 的《医疗器械生产许可证》 ,销售单位应具备《二类医疗器械经营备案证》。
因此无论名称 是“医用制氧机”“家用制氧机”“小型制氧机”还是“分子筛制氧机”其本质都 是“医用制氧机” ,均应具有医疗器械注册证 。
制氧机适用哪些人群?
一般情况下 ,制氧机适用于已出现低氧血症的心脑血管疾病和呼吸系统疾病 的患者 ,比较有代表性的是慢性阻塞性肺疾病患者。另外 ,出现低氧血症 的其他疾病患者以及由于环境氧气稀薄导致 的高原肺水肿 、急性高山病 、高原昏迷等 ,也需要尽快氧疗。
对于普通消费者,专家指出,制氧机主要是供慢性呼吸系统疾病患者使用 ,一般健康家庭无需在家中配置制氧机。如出现胸闷 、气喘、呼吸困难或其他低血氧症状 ,也应第一时间前往医院就诊 ,不宜在家中自己使用制氧机吸氧,吸氧浓度过高或时间过长都容易导致氧中毒 ,造成危险。
选购注意事项
氧浓度是制氧机的核心指标 ,YY/T 0298-1998《医用分子筛制氧设备通用技术规范》要求,制氧机 的氧浓度≥90% (v/v),氧气应无气味 ,水分含量≤0.07g/m3,二氧化碳含量≤0.01% (v/v) 。
对于制氧机 的噪声 ,YY 0732- 2009《医用氧气浓缩器 安全要求》规定,在正常使用条件下 ,氧气浓缩器 的最大噪音不应超过60dB。YY/T 0298-1998《医用分子筛制氧设备通用技术规范》要求 ,制氧设备的噪声不大于85 dB。
YY 0732- 2009《医用氧气浓缩器 安全要求》还规定 ,氧气浓缩器出口处 的气体温度不应超过环境温度6℃。气体温度最高不应超过46℃,以避免气体对人体造成热损伤。
作为普通消费者,在选择购买制氧机前 ,还 是应该咨询专业医生 的建议,正确了解自己适应症所需吸氧时间以及吸氧流量 的要求,然后选择合适 的型号产品,按说明书要求合理使用 。(来源 :上海市质标院)(中新财经)
报告显示 :超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前 ,国内对于算法治理 的基本思路和框架都是清晰 的,而分级分类精准治理 的模式应当可以解决如何落实的问题 。”在日前举办 的“2022啄木鸟数据治理论坛”上 ,谈及算法治理的现状 ,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不 是目标,而 是要针对不同风险场景配备不同监管规则 。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办 。其间 ,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到 ,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状 ,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度 ,最后基于多方调查分析 ,给出了当前算法趋势观察以及未来治理方向建议。
报告发现 ,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方 的互联网信息服务算法备案系统 ,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好 ,但仅一成受访者认为企业算法公开做得很好 ,逾六成 的受访者称曾遭遇“大数据杀熟” ;超过六成 的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面 的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任 、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用 ;其次 ,目前人工智能服务知情同意落地艰难 ,被迫知情同意普遍存在;最后,目前用户数据 的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层 的网络服务提供方联合提出更合理 的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示 ,从算法治理角度来说,深度合成管理规定与之前 的算法推荐管理规定 的思路有所不同,前者采用了一种“三位一体由 的数据与技术规范 。
具体来讲,由于深度合成技术 的门槛较高,技术支持者也被纳入了监管范围内 。比如,深度合成服务提供者提供智能对话 、合成人声 、人脸生成 、沉浸式拟真场景等服务 ,应当进行显著标识,这就将更重 的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任 的算法认知 ,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见 ,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)