基于多因子组合判别的数字量帧通用解析方法
作者:
作者单位:

太原卫星发射中心技术部 太原 030013

作者简介:

舒传华 1981年生,硕士,工程师。
王竞克 1983年生,硕士,工程师。
范亚辉 1982 年生,学士,工程师。

通讯作者:

中图分类号:

V557+.3;TN915.04

基金项目:


The general parsing method for digital data frames based on multiple-factor combination
Author:
Affiliation:

The Technology Department of Taiyuan Satellite Launch Center, Taiyuan 030013, China

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    随着航天任务型号的不断改进,箭上各系统单机输出数字量数据的现象越来越普遍,且数字量数据帧结构也越来越复杂多样,在各型号之间差异也较大,这给遥测数据处理带来了巨大挑战。若各型号各种帧结构数字量数据均对应一种解析方法,那么软件需要经常做适应性修改,造成软件维护工作量大且容易出错。针对这种情况,在充分梳理总结以往各型号任务中复杂帧结构数字量数据的特点和对应解析方法的基础上,提出了基于数字量帧结构中多个因子作为综合判据的普适性的解析方法,称为“通用解析方法”,其中分析了各因子对数据帧解析的作用,讨论了块头、步长等重要因子的设计和判别,给出了通用实现过程。方法已多次应用于航天任务中,效果良好。

    Abstract:

    With the improvement of space product models, it's more and more general to output digital data from system single machine, and frame structures of digital data are various and different between space products. So it brings huge challenge for the telemetry data processing to process all kinds of digital data frames. If the parsing method for digital data frames is non-uniform, data processing software needs constant adaptable modification, which causes big software maintenance and mistakes easily. In view of this situation, based on summarizing the characteristics of the pre-exist digital data frame structures and the corresponding processing methods, the paper proposes the general parsing method for digital data frames based on multiple-factor combination, which analyzes the use of each factor for parsing digital data frames, and discusses the design and judging of block head and step factors, and puts forward general fulfil process. The method has been used in data processing in space tasks and has received perfect effect.

    相似文献
    引证文献
引用本文

舒传华,王竞克,范亚辉.基于多因子组合判别的数字量帧通用解析方法[J].遥测遥控,2023,44(5):41-47.

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
    参考文献
历史
  • 收稿日期:2023-04-16
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2023-09-19
  • 出版日期:
  • 优先出版日期: 2023-09-19