同步操作将从 dromara/easyAi 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
本包说明:
入手门槛低,简单配置,快速上手
//创建图片解析类
Picture picture = new Picture();
//创建一个静态单例配置模板
static TempleConfig templeConfig = new TempleConfig();
//第三个参数和第四个参数分别是训练图片的宽和高,为保证训练的稳定性请保证训练图片大小的一致性
templeConfig.init(StudyPattern.Accuracy_Pattern, true, 640, 640, 2);
//将配置模板类作为构造塞入计算类
Operation operation = new Operation(templeConfig);
//一阶段 循环读取不同的图片
for (int i = 1; i < 1900; i++) {
//读取本地URL地址图片,并转化成矩阵
Matrix a = picture.getImageMatrixByLocal("/Users/lidapeng/Desktop/myDocment/picture/a" + i + ".jpg");
Matrix c = picture.getImageMatrixByLocal("/Users/lidapeng/Desktop/myDocment/picture/c" + i + ".jpg");
//矩阵塞入运算类进行学习,第一个参数是图片矩阵,第二个参数是图片分类标注ID,第三个参数是第一次学习固定false
operation.learning(a, 1, false);
operation.learning(c, 2, false);
}
for (int i = 1; i < 1900; i++) {
//读取本地URL地址图片,并转化成矩阵
Matrix a = picture.getImageMatrixByLocal("D:\\share\\picture/a" + i + ".jpg");
Matrix c = picture.getImageMatrixByLocal("D:\\share\\picture/c" + i + ".jpg");
//将图像矩阵和标注加入进行学习,Accuracy_Pattern 模式 进行第二次学习
//第二次学习的时候,第三个参数必须是 true
operation.learning(a, 1, true);
operation.learning(c, 2, true);
}
templeConfig.finishStudy();//结束学习
//获取学习结束的模型参数,并将model保存数据库
ModelParameter modelParameter = templeConfig.getModel();
String model = JSON.toJSONString(modelParameter);
//读取一张图片,并将其转化为矩阵
Matrix a = picture.getImageMatrixByLocal(fileURL);
//返回此图片的分类ID
int an = operation.toSee(a);
//创建一个静态单例配置模板类
static TempleConfig templeConfig = new TempleConfig();
//初始化配置模板
templeConfig.init(StudyPattern.Accuracy_Pattern, true, 640, 640, 2);
//将配置模板类作为构造塞入计算类
Operation operation = new Operation(templeConfig);
//从数据库中读取学习的模型结果,反序列为ModelParameter
ModelParameter modelParameter = JSON.parseObject(ModelData.DATA2, ModelParameter.class);
//将模型数据注入配置模板类
templeConfig.insertModel(modelParameter);
//创建模板读取类
TemplateReader templateReader = new TemplateReader();
//读取语言模版,第一个参数是模版地址,第二个参数是文本编码方式
//同时也是学习过程
templateReader.read("/Users/lidapeng/Desktop/myDocment/a1.txt", "UTF-8");
//学习结束获取模型参数
//WordModel wordModel = WordTemple.get().getModel();
//不用学习注入模型参数
//WordTemple.get().insertModel(wordModel);
Talk talk = new Talk();
//输入语句进行识别,若有标点符号会形成LIST中的每个元素
//返回的集合中每个值代表了输入语句,每个标点符号前语句的分类
List<Integer> list = talk.talk("帮我配把锁");
System.out.println(list);
//这里做一个特别说明,语义分类的分类id不要使用"0",本框架约定如果类别返回数字0,则意味不能理解该语义,即分类失败
//通常原因是模板量不足,或者用户说的话的语义,不在你的语义分类训练范围内
//创建一个DNN神经网络管理器
NerveManager nerveManager = new NerveManager(...);
//构造参数
//sensoryNerveNub 感知神经元数量 即输入特征数量
//hiddenNerverNub 每一层隐层神经元的数量
//outNerveNub 输出神经元数量 即分类的类别
//hiddenDepth 隐层神经元深度,即学习深度
//activeFunction 激活函数
//isDynamic 是否启用动态神经元数量(没有特殊需求建议为静态,动态需要专业知识)
public NerveManager(int sensoryNerveNub, int hiddenNerverNub, int outNerveNub, int hiddenDepth, ActiveFunction activeFunction, boolean isDynamic)
nerveManager.getSensoryNerves()获取感知神经元集合
//eventId:事件ID
//parameter:输入特征值
//isStudy:是否是学习
//E:特征标注
//OutBack 回调类
SensoryNerv.postMessage(long eventId, double parameter, boolean isStudy, Map<Integer, Double> E, OutBack outBack)
//每一次输出结果都会返回给回调类,通过回调类拿取输出结果,并通过eventId来对应事件
//创建一个内存中的数据表
DataTable dataTable = new DataTable(column);
//构造参数是列名集合
public DataTable(Set<String> key)
//指定主列名集合中该表的主键
dataTable.setKey("point");
//创建一片随机森林
RandomForest randomForest = new RandomForest(7);
//构造参数为森林里的树木数量
public RandomForest(int treeNub)
//唤醒随机森林里的树木
randomForest.init(dataTable);
//将加入数据的实体类一条条插入森林中
randomForest.insert(Object object);
//森林进行学习
randomForest.study();
//插入特征数据,森林对该数据的最终分类结果进行判断
randomForest.forest(Object objcet);
TempleConfig templeConfig = new TempleConfig(false, true);
使用TempleConfig()有参构造,第一个参数目前依然固定传false(因为有功能还没完成),第二个参数是一个布尔值是否忽略精度。
众所周知JAVA计算浮点是有精度损失的,如果选择true则使用大数计算类即无精度损失(默认为FALSE),但是这是以速度变慢十倍以上为代价的。
忽略精度和使用精度准确度上差距,平均在5-6个百分点之间,所以用户按照自己的需求来判断是否使用精度计算。优点:准确度提升5-6个百分点,配合DNN分类器可达99%以上的准确率
缺点:运算速度变慢十倍以上,从百毫秒变为一至两秒
TempleConfig templeConfig = new TempleConfig(false, true);
templeConfig.setClassifier(Classifier.DNN);
在TempleConfig类调用init()方法前选择使用的分类器setClassifier()
public class Classifier {//分类器
public static final int LVQ = 1;//LVQ分类
public static final int DNN = 2; //使用DNN分类
public static final int VAvg = 3;//使用特征向量均值分类
}
目前easyAi提供三种分类器,即用户选择一种参数设置进配置模板类
这三种分类器的特点
- LVQ:若用户训练图片量较少,比如一个种类只有一两百张图片,则使用此分类器达到当前条件下最大识别成功率
- VAvg:若用户训练图片较少,同时分类数量也很少,比如只训练两三种物体识别,则VAvg达到当前最大识别成功率
- DNN:若用户训练图片较多,每种分类1500张训练图片,则使用此分类器,准确率98%+。
- 若不设置分类器,则框架默认使用VAvg分类器
使用DNN的话,API略有区别
//创建图片解析类
Picture picture = new Picture();
//创建一个静态单例配置模板
static TempleConfig templeConfig = new TempleConfig();
//第三个参数和第四个参数分别是训练图片的宽和高,为保证训练的稳定性请保证训练图片大小的一致性
templeConfig.init(StudyPattern.Accuracy_Pattern, true, 640, 640, 2);
//将配置模板类作为构造塞入计算类
Operation operation = new Operation(templeConfig);
//一阶段 循环读取不同的图片
for (int i = 1; i < 1900; i++) {
//读取本地URL地址图片,并转化成矩阵
Matrix a = picture.getImageMatrixByLocal("/Users/lidapeng/Desktop/myDocment/picture/a" + i + ".jpg");
Matrix c = picture.getImageMatrixByLocal("/Users/lidapeng/Desktop/myDocment/picture/c" + i + ".jpg");
//矩阵塞入运算类进行学习,第一个参数是图片矩阵,第二个参数是图片分类标注ID,第三个参数是第一次学习固定false
operation.learning(a, 1, false);
operation.learning(c, 2, false);
}
for (int i = 1; i < 1900; i++) {
Matrix a = picture.getImageMatrixByLocal("D:\\share\\picture/a" + i + ".jpg");
Matrix c = picture.getImageMatrixByLocal("D:\\share\\picture/c" + i + ".jpg");
operation.normalization(a, templeConfig.getConvolutionNerveManager());
operation.normalization(c, templeConfig.getConvolutionNerveManager());
}
templeConfig.getNormalization().avg();
for (int i = 1; i < 1900; i++) {
//读取本地URL地址图片,并转化成矩阵
Matrix a = picture.getImageMatrixByLocal("D:\\share\\picture/a" + i + ".jpg");
Matrix c = picture.getImageMatrixByLocal("D:\\share\\picture/c" + i + ".jpg");
//将图像矩阵和标注加入进行学习,Accuracy_Pattern 模式 进行第二次学习
//第二次学习的时候,第三个参数必须是 true
operation.learning(a, 1, true);
operation.learning(c, 2, true);
}
大家可以看到如果使用DNN,在一阶段学习和二阶段学习之间多了一段代码即:
for (int i = 1; i < 1900; i++) {
Matrix a = picture.getImageMatrixByLocal("D:\\share\\picture/a" + i + ".jpg");
Matrix c = picture.getImageMatrixByLocal("D:\\share\\picture/c" + i + ".jpg");
operation.normalization(a, templeConfig.getConvolutionNerveManager());
operation.normalization(c, templeConfig.getConvolutionNerveManager());
}
templeConfig.getNormalization().avg();
templeConfig.setDeep(int deep);
若不设置默认深度为2,设置的深度越深则意味着准确率也越高,但同时也意味着你需要更多的训练图片去训练
增加一层深度,训练图片的数量至少乘以3,否则准确度不仅不会增加,反而会下降优点:更深的深度准确率可以无限接近100%,我们只要训练量足够大,我们就可以更深,越深越无敌
缺点:增加深度意味着成几何倍数提升的训练量,同时也意味着过拟合的风险
templeConfig.init(StudyPattern.Accuracy_Pattern, true, width, height, 1);
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。