面向高能物理的大数据管理系统
配置文件./config.ini说明hdfs和hbase的运行环境, 本地环境可以使用默认配置。
hbase只有字符类型,但是数字的大小顺序和字符顺序不匹配,导致针对属性值的范围搜索失效。为了使数字的大小顺序和字符顺序匹配,对数字进行编码。c代码./c/TyperSer.c可以对整数和浮点数进行编码。./python/lib/TyperSer.so是编译生成的动态链接。
为了加快生成hbase数据表的速度,将生成的倒排索引存储在hdfs文件中,hbase表结构为rowkey, data:run, data:offset, data:length, data:count。一个run生成一个hdfs数据文件,data:run指向这个文件名,data:offset指向当前rowkey的倒排索引字符串在文件中的偏移量,data:length说明字符串的长度,data:count说明有多少个entryID。所以查询的时候先在hbase中查询,再通过offset等文件信息在hdfs文件中读取倒排索引。
脚本./python/create_table新建hbase数据表。命令格式:./create_talbe 'table-name'
脚本./python/run2data分析root文件,同一个run下的root文件建立事例倒排索引。脚本支持多线程并行,命令格式:./run2data 'root-dir-path' 'save-dir-path' 'multiprocessing-num'。确保'root-dir-path'目录下的root文件根据run号分发在对应的子文件下,'save-dir-path'存在,并且有csv和data两个子文件卡。运行完成以后,将csv和data两个子文件卡拷贝到hdfs:///eventdb/'talbe-name'/目录下。 j脚本./python/genInfo析构元信息,命令格式:./genInfo 'table-name' 'root-dir-path'
每一个数据表有大量数据,使用hbase-bulkload批量导入。运行命令mvn clean compile && mvn clean package生成jar包,然后运行java -jar ./target/eventdb.jar org.osv.eventdb.CsvInsert 'hdfs-input-path' 'hdfs-output-path' 'hbase-table-name'进行批量导入。
查询支持多个run查询,每个run号用逗号分隔。条件支持范围查询和交并运算。命令格式:./evtQuery -v 'hbase-table-name' -r 'runID' -q 'range(property1, min, max) && range(property2, min, max) || range(property3, min, max) ... ' -f 'output-file-name'
cd EventDBWeb
python ./manage.py runserver 0.0.0.0:8080
查询事例数:localhost:8080/runInfo?op=totalEvents
查询存储量:localhost:8080/runInfo?op=volume
多维查询:localhost:8080/?tablename=${table-name}&command=${command}
查询结果:localhost:8080/static/data/*.json
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。
1. Open source ecosystem
2. Collaboration, People, Software
3. Evaluation model