当我们下载OpenHarmony源码后,使用hbset,都可以看到有一个ipcamera_hispark_taurus_linux的编译选项:一直很好奇这个东西是干嘛用的,按理来说,hbset编译的是L0和L1,ipcamera_hispark_taurus是L1liteOS-A内核的,那这个是ipcamera_hispark_taurus_linux到底是干嘛用的?难道说,是L1Linux版本???那真是有点意思了。于是赶紧编译,经过几分钟的等待,可以看到已经编译成功了:于是进入out目录,可以看到有如下文件:看半天也不知道这东西是干嘛用的,怎么烧录、分区表是怎么样的、启动参数如何最后在海思
1、【实验目的】1、将HarmonyOS创建的项目移植入鸿蒙系统中并应用2、【实验准备】提前准备好软件开发环境,DevEcoStudio2.1.0.501x64,MobaXterm1_CHS1,Ubuntu16.04及以上64位系统版本。准备BearPi-Micro,与USB转串口数据线。3、【实验步骤】创建一个新项目; 2. 点击EmptyAblilty(JS)项目,再点击Next;3、自己命名项目名称,选择Application,SmartVision,再点击Filsh;4、创建项目完成时的界面:5、接下来重点关注MyApplication\entry\src
1.概述我们将在Hi3516DV300SDK的基础之上进行开发,分别为手部检测+手势识别实验,垃圾分类实验。手部检测+手势识别实验以及垃圾分类实验,主要基于训练好的wk模型在板端进行部署,并充分发挥海思IVE、NNIE硬件加速能力,完成AI推理和业务处理。2.目录ai_sample在Hi3516DV300SDK基础上进行开发,在利用媒体通路的基础上,通过捕获VPSS帧进行预处理操作,并送至NNIE进行推理,结合AICPU算子最终得到AIFlag并进行相应业务处理,该AIsample集成了垃圾分类、手势检测识别两个基础场景,运用到媒体理论、多线程、IPC通信、IVE、NNIE等思想,实现了一个轻
已实现了标准系统拍照和云服务文字识别的研究,现需要验证在OpenHarmony标准设备上,开发一个应用程序,通过调用OpenHarmony已集成的libcurl,封装2个方法,实现对外网httpreset接口(get/post)调用。作为后期调用AI云服务的基础。本次已经使用OpenHarmony3.1Beta的代码,仍然使用润和HiSparkTaurusAICamera(Hi3516d)开发板套件步骤1下载OpenHarmony源代码repoinit-ugit@gitee.com:openharmony/manifest.git-brefs/tags/OpenHarmony-v3.1-Bet
1、【实验目的】1、使用Hi3516DV300的基本操作方法与环境搭建以及uboot、kernel、fs文件系统烧写。2、学会使用开发板挂载NFS服务,以及解决烧录过程问题。2、【实验原理】提前准备好,Ubuntu系统以及移植前的准备工作。3、【实验步骤】安装nfs服务 命令:sudoapt-getupdate 2、启动nfs服务 命令:sudosystemctlstartnfs-kernel-server.service 或sudoservicenfs-serverstart //启动就可以了 3、创建一个共享文件夹 命令:mkdirnfs_file&&cdnfs_file&
背景从HarmonyOS应用开发玩到OpenHarmony应用开发,前前后后也有大半年了,北向HelloWorld的应用从JAVA写到了JS,又写到了eTS。北向应用的开发不说是精通,至少也早已是个半吊子,查查文档和参考下开发样例,还是能慢慢的写出个应用。然而,南向设备的开发,却一直拖着不知道如何上手。于是,最近终于狠下决心了:从设备开发的HelloWorld---点灯开始,先在OpenHarmony标准设备上,使用linux自带的GPIO点个灯,走出第一步,后续再使用HDF,NAPI等能力,持续探索南向设备开发。那么,这次我想做的是使用OpenHarmony3.0LTS版本的标准系统上,开发
开发板简介OpenHarmony目前官方支持的设备较少,润和软件设计与研发的HiSparkAICamera(基于HI3516)是其中之一。如果你是OpenHarmony的初学者,可以通过这块开发板开始学习开发板基本参数配置型号SoCHi3516DV300(双核900MHzCortexA7)内存1GBDDR3外存8GBeMMC部分官方资料#云盘资料链接:https://pan.baidu.com/s/1uiiCpbJqViGb7Qs6HdCb8g提取码:ddab…#hihope社区https://bbs.elecfans.com/group_1429…#润和HiHope社区开源项目集合https
提示:除了以上三种SOC,海思HI35XX其他SOC实现流程也应该类似,本篇文章以HI3516为主体进行实现。文章目录前言一、相关资料二、实现原理及步骤1.原理2.步骤三、代码实现前言最近实际开发中需要实现海思SOC内部自带的一个ADC的驱动,但海思SDK中并未提供相应的软件驱动支持,故需要自己去实现,整体流程也比较简单,不过对于第一次接触海思开发的人来说有一点困难一、相关资料(1)开发板配套的海思官方SDK:Hi3516CV500R001C02SPC021.rar,将其解压开来(2)SOC引脚信息表:00.hardware\chip\Hi3516DV300\Hi3516DV300_PINOU
海思3516系列芯片SPI速率慢问题深入分析与优化(基于PL022SPI控制器)我在某个海思主控的项目中需要使用SPI接口来驱动一块液晶屏,液晶屏主控为st7789,分辨率240x240,图像格式RGB565。查阅海思相关手册可知,Hi3516EV200的SPI最高速率为50MHz,理论上每秒钟可以发送50M/8=6.25MB数据。假设我需要在屏幕上以30fps的速率全屏实时显示摄像头的预览画面,每秒的数据量为240*240*2*30=3456000B=3375KB=3.296MB,假设SPI工作在阻塞模式,则cpu使用率为3.296/6.25*100%=52.7%,看起来还不错。如果我想进一
海思3516系列芯片SPI速率慢问题深入分析与优化(基于PL022SPI控制器)我在某个海思主控的项目中需要使用SPI接口来驱动一块液晶屏,液晶屏主控为st7789,分辨率240x240,图像格式RGB565。查阅海思相关手册可知,Hi3516EV200的SPI最高速率为50MHz,理论上每秒钟可以发送50M/8=6.25MB数据。假设我需要在屏幕上以30fps的速率全屏实时显示摄像头的预览画面,每秒的数据量为240*240*2*30=3456000B=3375KB=3.296MB,假设SPI工作在阻塞模式,则cpu使用率为3.296/6.25*100%=52.7%,看起来还不错。如果我想进一