一、目的在kettle建好共享资源库后,为了给在服务器上部署kettle的carte服务躺雷,先在Windows本地测试一下怎么玩carte服务二、Kettle版本以及在Windows本地安装路径kettle版本是8.2 pdi-ce-8.2.0.0-342 kettle本地安装路径是D:\java\kettle\pdi-ce-8.2.0.0-342三、carte服务简介Carte是Kettle自带的调度及监控工具,是一种内置的轻量级的web服务,支持HTTP方式进行转换、作业的调度,以及Web方式监控作业及转换的运行情况四、kettle本地carte服务路径及其配置文件路径(一
应用场景 生产环境的系统因程序BUG,产生了异常数据若没有及时处理,随着时间的日积月累最后可能会出现难以挽回的经济损失。 鉴于此,我们需要有一套自动核查机制。定时检查数据库的核心表数据。当出现不符合要求的异常数据时,能尽早提醒管理员及时处理。解决方案以下使用大数据ETL工具Kettle,进行数据定时推送、检查,并将检查结果邮件通知管理员。一、认识KettleKettle是一款国外著名的开源ETL工具,绿色无需安装,数据抽取高效稳定。它允许你管理来自不同数据库的数据,然后以一种指定的格式流出。Kettle现在已经更名为PDI,PentahoDataIntegrationPentaho数据集成。K
Linux下部署kettle并配置定时调度1、安装JAVA(1)查看原系统版本,从图中可以看出JDK版本为openJDK需要卸载,如果没有安装跳过即可java-version(2)查看安装信息rpm-qa|grepjava(3)卸载OPENJDKrpm-e--nodepsjava-1.7.0-openjdk-1.7.0.191-2.6.15.5.el7.x86_64rpm-e--nodepsjava-1.7.0-openjdk-headless-1.7.0.191-2.6.15.5.el7.x86_64rpm-e--nodepsjava-1.8.0-openjdk-headless-1.8.0
本来想用kettle,把hive数仓的DM层结果数据导出到clickhouse的表中。结果hive、clickhouse,kettle都可以连上。但是依然报错,搞了半天还没搞定,头大。先上clickhouse表输出控件的输入字段映射的报错截图一、hive和clickhouse数据库,kettle本身都可以连上1.kettle连接hive2.kettle连接clickhouse二、kettle转换任务设置 1.表输入插件(hive表输入)hive表输入没问题 2.字段选择插件可以选择字段,正常 3.表输出插件(输出到clickhouse)(1)表输出主选项正常 (2)获取字段正常,但是输入字段映
kettle运行Spoon.bat时,显示错误Couldnotcreatethejavavirtualmachine,Afatalexceptionhasoccured.Programwillexit.可能原因:jdk版本,运行内存不足 错误原因:并非运行内存不足和jdk版本问题,通过查询SpoonConsole.bat得知LaunchingSpoonwithconsoleoutput:D:\data-integration\data-integration>"D:\data-integration\data-integration\spoon.bat"DEBUG:FoundJAVAtwofo
一、目标Kettle9.2.0在Linux上安装好后,需要与Hive3.1.2数据库建立连接之前已经在本地上用kettle9.2.0连上Hive3.1.2二、各工具版本(一)kettle9.2.0 kettle9.2.0安装包网盘链接链接:https://pan.baidu.com/s/15Zq9wNDwyMnc3qFVxYOMXw?pwd=zwae 提取码:zwae(二)Hive3.1.2 (三)Hadoop3.1.3三、前提准备(一)Kettle9.2.0已在Linux上安装好(二)注意Kettle9.2里MySQL驱动包的版本以及Hive312里MySQL驱动包的版本1、Hive312
目录1.环境配置 2.安装kettle3.连接数据库4.连接数据库报错处理报错一 报错二前言:跟kettle斗智斗勇的一下午,下面是我踩过的一些坑,希望对大家在安装配置kettle时有所帮助,首先放一张我成功的截图: 1.环境配置 在安装使用kettle时需要配置Java环境;jdk官网下载连接如下(首次下载需要注册账号登录):JavaDownloads|Oracle📌注:我们下载jdk8就行,jdk11兼容性不好,容易闪退(亲身测试,原本电脑上下载过jdk11,想图省事直接用,闪退无数次😭😭,目前jdk8测试下来不会)打开这个网址向下滑可以看到下图,下载jdk 如果觉得上官网上下载要注册
文章目录一、部署环境二、搭建步骤1、Linux下JDK环境搭建2、各服务器之间开启SSH免密登录3、查看所需端口是否被占用4、Linux下Kettle安装5、测试Kettle是否安装成功6、Kettle集群环境配置7、集群carte服务开启8、在kettle图形界面中对集群进行设定三、注意事项一、部署环境环境:JDK1.8Centos7Kettle8.2.0Kettle组件:Spoon:图形化工具,用于快速设计和维护复杂的ETL工作流。Kitchen:运行作业的命令行工具。Pan:运行转换的命令行工具。Carte:轻量级的(大概1MB)Web服务器,用来远程执行转换或作业,一个运行有Carte
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言最近公司在搞大数据数字化,有MES,CIM,WorkFlow等等N多的系统,不同的数据源DB,需要将这些不同的数据源DB里的数据进行整治统一中间库,这就需要用到ETL一、ETL工具是什么?二、使用步骤1.Kettle软件环境2.ETL工具Kettle组件三、实例-增量同步数据1.配置表的设计2.创建Transformation(转换)3.Jobs(作业)4.设置变量5.执行成功总结前言提示:这里可以添加本文要记录的大概内容:最近公司在搞大数据数字化,有MES,CIM,WorkFlow等等N多的系统,不同的数据源DB,需
目录第1章Kettle概述1.1ETL简介1.2Kettle简介1.2.1Kettle是什么1.2.2Kettle的两种设计1.2.3Kettle的核心组件1.2.4Kettle特点第2章Kettle安装部署2.1Kettle下载2.1.1下载地址2.1.2 Kettle目录说明2.1.3 Kettle文件说明2.2Kettle安装部署2.2.1概述2.2.2安装2.3Kettle界面简介2.3.1首页2.3.2转换2.3.3作业2.4Kettle转换初次体验2.5Kettle核心概念2.5.1可视化编程2.5.2转换2.5.3步骤(Step)2.5.4跳(Hop)2.5.5元数据2.5.