关键字 |
农业市场、数据挖掘、装箱、决策树分类规则,支持、信心、准确性。 |
介绍 |
农产品市场委员会是一个营销委员会建立了印度政府(例如,古吉拉特邦和马哈拉施特拉邦)。古吉拉特邦的政府,为了方便农民得到合理的价格出售农产品构成APMC在许多城镇。大多数APMC市场院子交易员和其他营销代理提供仓库里和商店购买农民的农业生产。农民可以出售他们的产品代理或经销商APMC的监督之下。我们将建立我们的数据库获取每日数据(从Agmark.ac.in到来,Minprice Maxprice)。数据挖掘将用于从数据库中发现隐藏的价值。它是一个强大的技术与一个伟大的潜在关注最重要的信息在数据仓库。分析关系和数据在存储模式。 |
决策树是强大的和流行的工具分类和预测。我们使用ID3技术搜索通过训练实例的属性和提取属性,最好将给定的例子。如果属性完全分类的训练集ID3停止;否则它递归地作用于m (m =一个属性的可能值的数量)分区的子集,“最好”的属性。算法使用一个贪婪搜索,最好选择属性,从不回头重新考虑之前的选择。每个发现的模式应该衡量肯定与它相关的评估的有效性或“诚信”的模式。规则的确定性测量形式“= > B”的信心。的支持模式是指taskrelevant的百分比数据元组的模式是正确的。 |
相关工作 |
在[1]的作者使用大型数据库的客户交易,每个事务,包括客户购买的商品在一个访问。作者提出了一个高效的算法的结果,生成数据库中的所有重大项目之间的关联规则。一种新的学习算法评估和选择方法,基于分类的实证结果在[2]中引入的。8算法/之间的实证研究进行了分类器与100年不同的分类问题。研究实证结果用于生成规则,使用基于规则的学习算法,描述哪些类型的算法适合解决哪些类型的分类问题。大部分的规则生成评级高的信心。在[8]数据挖掘解决方案开发诊断肺结核尽可能准确,帮助决定是否合理开始结核病治疗疑似病人没有等待准确的测试结果。作者关注三种不同的数据挖掘方法(自适应神经模糊推理系统(简称ANFIS),多层感知器和局部决策树)。在[9]的产量预测问题是通过采用数据挖掘技术来解决。研究论文旨在发现合适的数据模型,实现高精度和高通用性的收益预测能力。 For this purpose, different types of Data Mining techniques were evaluated on different data sets. |
步骤包括在生成分级规则 |
建立数据库 |
研究的基本要求是使历史数据在日常生活中所有数据的到来,minprice北古吉拉特邦和maxprice Gwar APMC市场,www.agmark.ac.in提供了历史数据。我们将使用它作为一个主要的数据来源。 |
清洁 |
我们将检查缺失值。如果缺失值会发现过去10个交易日价格将特定领域和平均计算的移民或价格填写缺失值。以下字段将建立数据库: |
•市场 |
•日期 |
•到来 |
•最低价格 |
•最高价格 |
•模态价格 |
计算百分比变化 |
生成一个决策树,我们需要一个百分比变化到来,minprice和maxprice比较的前一天到达和价格。 |
1)决定估值:基于百分比的变化Modalprice前一天记录将被决定的估值,估值可以fairly_valued under_valued或over_valued。估值将决定基于以下标准: |
如果Modalprice的百分比变化 |
•> = 5%然后估值前一天的记录是“低估” |
•在-5%和5%之间估值前一天的记录是“Fairlyvalued” |
•< = -5%然后估值前一天的记录是“高估” |
装箱 |
装箱将每个字段的数据库为每个Gwar记录。装箱值将取代原来的值将通过应用排序计算每个属性的每个Gwar的记录。总数值在每一本的基础上计算的记录总数Gwar除以10。这意味着我们将允许最大十箱。 |
规则生成 |
该算法计算每个属性的信息增益。选择最高的属性信息增益作为给定的测试属性数据库。创建一个节点并标记与属性,创建分支的每个值属性和样品都相应的分区。 |
下面的描述算法 |
创建一个节点N; |
如果样品都是同一类的,C |
返回N作为叶子节点标记为C类; |
如果属性列表是空的 |
返回N作为叶子节点标记样本中最常见的类; |
选择test属性,最高的属性在属性列表信息。所得; |
标签节点N test属性; |
对于每一个已知的ai的test属性的值 |
成长从一个分支节点N条件test属性= ai |
让si中的样本集样本的test属性= ai |
如果如果是空的 |
附加一个叶用中最常见的类标记样本; |
其他的 |
附加的节点返回的算法 |
树修剪 |
我们选择pre-pruning方法,观其行“修剪”,停止建设早期(通过决定不再继续分裂或分区的子集训练样本在给定的节点)。在停止时,节点成为一片叶子。子集之间的叶是最常见的类样品或样本的概率分布。 |
支持和信心 |
可以转化为决策树分类IF_THEN规则通过跟踪的路径从根节点树中的每个叶节点。我们将计算每个分类规则的支持和信心,以以下的方式转换成IF_THEN规则。 |
规则,满足最小支持度阈值和最小阈值被称为强大的信心。 |
支持 |
规则= > B在事务集D s的支持下,s是交易的百分比在D包含美(即。A和B)。这是概率,P(美)。 |
对于每个规则生成的ID3方法我们将计算支持。规则适用于训练数据集的支持下,s是交易的百分比在训练数据集,其中包含两个如果,然后一部分。这是被同时发生的概率。我们已经考虑了最低20的支持。 |
信心 |
法治信心= > B c在事务组D如果c D包含交易的百分比,也含有B .这是概率P (B |)。 |
对于每个规则生成的ID3方法我们将计算的信心。规则适用于训练数据集有信心c, c是交易的百分比在训练数据集,其中包含如果部分也包含部分。我们已经考虑了最低九十的信心。 |
准确性(合作方法) |
合作方法我们将使用精度的三分之二的数据分配到训练集,剩下的三分之一是分配给测试集,训练集用于推导出分类器,据估计的准确性测试set.Classification规则生成有最低支持二十,最低八十年和90年最低的准确性的信心只会被认为是在我们的模型中。 |
结论 |
“技术方法”为第二天Gwar趋势的预测。农民们有趣的是如果他们能知道第二天运动一天之前。我们的分类规则可以帮助预测第二天运动Gwar北地区的古吉拉特邦。这之前出售Gwar农民可能保证利润或损失百分比。 |
引用 |
- Agrawal R。,Imielinski T. “Mining associations between sets of items in large databases”. Proceedings of the ACM SIGMOD International Conference on Management of Data.pp: 207-216.
- 阿里,A.B.M.S.,Smith, K. A. (2004). “On learning algorithm for classification”. Applied Soft Computing, pp: 119-138.
- 阿里,A.B.M.S.,Wasimi, S. A. (2007). “Data mining: methods and techniques”. Thomson, Victoria, Australia.
- Alor-Hernandez G。,Gomez-Berbis, J. M., Jimenez-Domingo, E., Rodríguez-González, A., Torres-Niño, J., “AKNOBAS: A Knowledge- asedSegmentation Recommender System based on Intelligent Data Mining Techniques”. Computer Science and Information Systems, Vol. 9, No. ,2012, pp: 713-740.
- 科恩,w (1995)。“快速有效的规则归纳”。机器学习程序Twelth国际会议。页:115 - 123
- 杜达,R。,Hart, P., “Pattern classification and scene analysis”. Wiley, New York, 1973
- 汉族,J。,Kamber, M., “Data mining concepts and techniques 2nd edithion”. Morgan Kaufman, 2006, pp: 227-378.
- Nagabhushanam D。Naresh。,N。,“Prediction of Tuberculosis Using Data Mining Techniques on Indian Patient’s Data”. IJCST, Vol. 4, No. 4, 2013, pp: 262-265.
- 拉梅什D,毗瑟奴Vardhan B。,“Data Mining Techniques and Applications to Agricultural Yield Data”, IJARCCE, Vol. 2, Issue 9, September 2013.
- 叙利娅,K。,Priya, K., “Exploring Frequent Patterns of Human Interaction Using Tree Based Mining”. IJCST, Vol. 4, No. 4, 2013.
- https://www.agmarknet.nic.in/
- https://cacp.dacnet.nic.in
|