我正在学习Talend,我需要一个XML到CSV的映射,但我无法正常工作。我有一个这样的文档(非常简单):因此,我可以没有多个引用,最多可以有4个不同的类型。我需要像这样将其转换为CSV:ReferenceType1,ReferenceType2,ReferenceType3,ReferenceType4,Amountwhatever11,whatever12,,,222,whatever22,whatever23,,123242,whatever32,whatever33,,12976whatever41,,,whatever44,1456,,,,12976为此,我创建了这个简单的结
我在Talend中有这个工作应该检索一个字段并循环遍历它。我的大问题是代码循环遍历XML字段但它返回null。这是XML的示例:[--somefields--]photo1[--otherentrieshere--]现在使用tExtractXMLField组件,我试图获取“fotos”元素。这是我在组件中的内容:我尝试更改XPath查询和XPath循环查询,但结果是我没有循环遍历该字段,或者我在tMap的值字段中得到空值。这是工作的图片:您可以看到我已经从XML中检索了4个项目,但我在“nome”字段中得到的是null。XPath一定有问题,但我似乎找不到问题:(希望有人能帮帮我。谢谢
我是TalendETL的新手,正在使用TalendOpenStudioforBigData版本5.4.1。我开发了一个简单的TalendETL作业,它从csv文件中获取数据并将数据插入到我的本地Oracle数据库中。下面是我的包裹的样子:作业在csv文件的最后一条记录之后返回ArrayIndexOutOfBounds异常。但是我不确定为什么它首先要返回它?我查看了此链接上给出的解决方案:http://www.talendforge.org/forum/viewtopic.php?id=21644但是好像一点用都没有。我有oracle组件的最新驱动程序,增加/减少提交大小似乎不会影响它。
我的工作如下所示。tmysqlinput_1的行需要在tmysqloutput中更新/插入。tmysqlinput_2与tmysqloutput是同一表。我通过内联接加入tmysqlinput_1和tmysqlinput_2。但是,当我将一些测试行放在tmysqinput_1中线程“thread-0”java.lang.outofmemoryerror中的异常:GC高架限制超过我可以知道为什么不会发生插入,而是发生更新的情况吗?谢谢Rathi看答案这取决于从数据库下载到您的TALEND作业中的数据量。由于处理是标准的ETL处理,因此所有数据都将加载到TALEND作业中,消耗内存。根据您的行布局
我正在尝试从TAC运行我的第一个Talend作业。我正在尝试从标准作业中调用大数据批处理。它在本地集群中运行良好,但在从TAC运行相同的作业时我遇到了这个错误。moment;pid;root_pid;father_pid;project;job;context;priority;type;origin;message;code2017-02-1307:54:29;20170213075427_jnxLB;20170213075427_jnxLB;20170213075427_jnxLB;ELT_3_0;CustomerDataLoad;hadoop;6;JavaException;tR
我创建了一个Talend作业,使用tHDFSPut将一个简单的文本文件(webapp.log,50KB)上传到HDFS。目录和文件已在HDFS中成功创建,但在上传文件内容期间,我以某种方式重现了Connectionrefused:nofurtherinformation(请参阅末尾的日志),因此上传失败(即创建的文件保持为空)。HDFS在ClouderaQuickstartVM中运行。tHDFSComponent中的用户名设置为“cloudera”并且应该可以工作,因为它是默认配置的一部分。对于为什么我收到“连接被拒绝”有什么建议吗?我尝试了什么ClouderaManager表示服务h
我正在尝试使用来自Windows的文件加载Hive表。但是我收到以下错误:java.sql.SQLException:Errorwhilecompilingstatement:FAILED:IllegalArgumentExceptionjava.net.URISyntaxException:Expectedscheme-specificpartatindex2:C:我正在使用TalendETL工具来处理文件。下面是Talend生成的代码:Stringpath_tHiveLoad_1="file:///C:/employee.txt";Stringtablename_tHiveLoad
我对Talend和ApacheSpark在大数据生态系统中的位置感到困惑,因为ApacheSpark和Talend都可以用于ETL。谁能举个例子解释一下? 最佳答案 Talend是一种基于工具的大数据方法,支持所有具有内置组件的大数据应用程序。spark是基于代码的方法,您需要为用例编写代码。 关于hadoop-Talend和ApacheSpark?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/q
我正在使用系统环境变量来参数talend中的作业,但是每次更改任何值时,都不重新启动talend,我无法反映更改。有解决方法吗?我不想使用上下文组或隐式上下文负载。我正在使用TalendOpenStudio免费版。这在企业版本中有什么不同吗?看答案这与talend有关,是处理环境变量。Talend正在阅读启动环境变量并存储它们。有一个很好的答案这更详细地解释了有关Java的行为(talend是在Java上建立的)。还列出了一些技巧,如何根据您的操作系统获取变量。
我正在尝试在我的WindowsServer2012R2上安装TalendDataPreparationV1.3。我已经卸载了以前的1.2版本,并从我的机器上删除了所有与它相关的目录。现在,当我尝试安装v1.3时,出现以下错误。“MongoDB已本地安装在此计算机上。请卸载它或使用“外部MongoDB”选项继续。”目前我没有任何外部mongodb或可以安装它。请帮我解决这个问题。 最佳答案 我通过运行以下命令设法从服务列表中删除了mongoDB:scdeletetalend-mongodb-6.4.1我重新启动并停止了错误。