jjzjj

charArray

全部标签

hadoop - Apache Pig - 如何提取记录集

我是ApachePig的新用户,我有以下数据order=0012,1,23order=0013,2,34,0015,1,45order=0011,1,456...我试图提取到以下记录0012,1,230013,2,340015,1,450011,1,456...下面是我试过的代码a=LOAD'a.txt'UsingTextLoader()AS(line:chararray);b=FOREACHaGENERATEFLATTEN(REGEX_EXTRACT_ALL(line,'order=((\\d+),(\\d+),(\\d+))+'))AS(order_item:chararray,o

hadoop - 转储不工作

我正在使用IBMBigInsights。当我在PigGruntshell中执行DUMP命令时,我没有得到任何结果。示例输入文件:s_no,name,DOB,mobile_no,email_id,country_code,sex,disease,age11111,bbb1,12-10-1950,1234567890,bbb1@xxx.com,1111111111,M,Diabetes,7811112,bbb2,12-10-1984,1234567890,bbb2@xxx.com,1111111111,F,PCOS,6711113,bbb3,712/11/1940,1234567890,b

apache-pig - 无法将 org.apache.pig.builtin.SUM 的匹配函数推断为多个或都不适合。请使用显式转换

我想对包含长类型数字的列求和。我尝试了很多可能的方法,但仍然没有解决转换错误。我的pig代码:raw_ds=LOAD'/tmp/bimallik/data/part-r-00098'usingPigStorage(',')AS(d1:chararray,d2:chararray,d3:chararray,d4:chararray,d5:chararray,d6:chararray,d7:chararray,d8:chararray,d9:chararray);parsed_ds=FOREACHraw_dsGENERATEd8asinBytes:long,d9asoutBytes:lon

hadoop - Apache Pig 不会将字符串解析为 int/long

我是pig的新手,正在尝试对包含如下所示事件的文件执行一些基本分析:13454777652012-08-2008:49:24servername12.34.56.78192.168.1.4joebloggsManageSystemHere'syourmessage我尝试按如下方式加载文件:logs=LOAD'/path/to/file'usingPigStorageAS(loggedtime:long,serverdate:chararray,servertime:chararray,servername:chararray,externalip:chararray,internali

hadoop - Pig 中的条件和

我正在使用三元运算符有条件地在SUM()操作中包含值。这是我的做法。GROUPED=GROUPALL_MERGEDBY(fld1,fld2,fld3);REPORT_DATA=FOREACHGROUPED{GENERATEgroup,SUM(GROUPED.fld4=='S'?GROUPED.fld5:0)ASsum1,SUM(GROUPED.fld4=='S'?GROUPED.fld5:(GROUPED.fld5*-1))ASsum2;}ALL_MERGED的架构是{ALL_MERGED:{fld1:chararray,fld2:chararray,fld3:chararray,fl

hadoop - 如何使用 PIG 将数据从本地系统加载到 hdfs

我有一个csv文件sample.csv并且位于\home\hadoop\Desktop\script\sample.csv中。我尝试使用加载PIGmovies=load'/home/hadoop/Desktop/script/sample.csv'usingPigStorage(',')as(id,name,year,rating,duration);但是这个PIG语句给出了一个错误,但是当给出语句作为dumpmovies;时,它抛出错误并显示输入和输出失败。请建议我如何使用pig语句加载数据。 最佳答案 如果你的输入文件在本地,那

hadoop - 无法在 FOREACH block 内调用 PIG 宏

我无法从foreach中调用宏,例如DEFINEvalid_attribute(id,attribute)RETURNSresult{data=LOAD'/user/sathish/sessAttr'AS(id:chararray,browser_version:chararray);filtered_data=FILTERdataBYid=='$id'AND$attributeisNOTnull;$result=foreachfiltered_datagenerate$attribute;};ip=load'/user/sathish/macros/inputParams'AS(id

amazon-web-services - 无法从 S3 存储桶( Parquet 文件)将数据加载到 EMR 上的 pig 中

我想从EMR上的Pig中的s3存储桶中加载数据,我的源文件格式是parquet:下面是我用过的命令:A=LOAD's3://test-1/icted/emp_db/emp_tb'USINGparquet.pig.ParquetLoader(header__change_seq:chararray,header__change_oper:chararray,header__change_mask:chararray,header__stream_position:chararray,header__operation:chararray,header__transaction_id:ch

hadoop - 从 PIG 包中提取元组

文件内容(test.txt):Somespecificcolumnvalue:x192.168.1.2blahblahSomespecificrowvalue:y192.168.1.3blahblahSomespecificfieldvalue:z192.168.1.4blahblahpig查询:A=LOAD'test.txt'USINGPigStorage('\t')AS(data1:chararray,data2:chararray,data3:chararray,data4:chararray,data5:chararray,data6:chararray);B=foreachA

hadoop - Pig Latin(在 foreach 循环中过滤第二个数据源)

我有2个数据源。一个包含API调用列表,另一个包含所有相关的身份验证事件。每个Api调用可以有多个身份验证事件,我想找到以下身份验证事件:a)包含与Api调用相同的“标识符”b)在Api调用后一秒内发生c)经过上述过滤后最接近的ApiCall。我曾计划在foreach循环中遍历每个ApiCall事件,然后在authevents上使用过滤器语句来找到正确的事件-然而,这似乎不可能(USINGFilterinaNestedFOREACHinPIG)谁能建议其他方法来实现这一目标。如果有帮助,这是我尝试使用的Pig脚本:apiRequests=LOAD'/Documents/ApiReque