jjzjj

Teradata

全部标签

php - PDO 返回空属性名称

我遇到了pdo_odbc和PDO::FETCH_OBJ(和PDO::FETCH_CLASS)的奇怪问题,导致以下错误消息:PHPFatalerror:Cannotaccessemptyproperty这是代码:$dbh=newPDO("odbc:FOO");$sth=$dbh->query("SELECTrolenameFROMdbc.allrolerightsWHEREdatabasename='BAR'");$result=$sth->fetch(PDO::FETCH_OBJ);供引用的FOODSN是使用tdodbc包提供的tdata.so驱动程序的Teradata数据源。我相信这

php - PDO 返回空属性名称

我遇到了pdo_odbc和PDO::FETCH_OBJ(和PDO::FETCH_CLASS)的奇怪问题,导致以下错误消息:PHPFatalerror:Cannotaccessemptyproperty这是代码:$dbh=newPDO("odbc:FOO");$sth=$dbh->query("SELECTrolenameFROMdbc.allrolerightsWHEREdatabasename='BAR'");$result=$sth->fetch(PDO::FETCH_OBJ);供引用的FOODSN是使用tdodbc包提供的tdata.so驱动程序的Teradata数据源。我相信这

sql - SQL 和 SQL-MR 查询如何在 Teradata aster 内部工作?

我目前正在探索TeradataAster(Asterexpress6)。我浏览了文档和博客,但没有解释查询的工作原理。由于它是分布式的,它们sql和sql-mr获取数据的方式,它们是否在内部生成mapreduce作业?例如,客户表有10条记录,这些记录按哈希(客户ID)分布,并表示他们是3个工作人员(只是asterdata中的节点),数据在它们之间拆分为两个节点上的3个记录和一个节点上的4个记录.在SQL中简单的select*fromcustomers;在这种情况下会起作用吗?但在aster数据中,此查询有效。它如何从3个节点获取记录?如果普通的sql查询可以获取记录,那我们为什么需要

hadoop - Sqoop 从 Hive 导出到 Teradata 时间戳格式必须是 yyyy-mm-dd hh :mm:ss[. ffffffff]

我正在尝试将数据从HadoopHive导出到Teradata。我的数据包含可以为NULL的时间戳。当我进行导出时,对于具有NULL时间戳的行,我收到以下错误:“时间戳格式必须是yyyy-mm-ddhh:mm:Ss[.fffffffff]”在我的sqoop导出中,我确实添加了两个选项--input-null-string'\N'和--input-null-non-string'\N'。你知道解决这个问题的方法吗?谢谢。 最佳答案 Teradata中数据类型为timestamp的列需要具有以下格式的值yyyy-mm-ddhh:mm:Ss

sql - Teradata 转换为 hive sql

我正在尝试将以下teradatasql转换为hivesql但在末尾附近出现错误:ParseExceptionline83:6missing)at'qualify'near'qualify'line83:14missingEOFat'row_number'near'合格'我是hive的新手。任何帮助将不胜感激selectcustomer_idtier_cust_id,support_segmenttier_suppt_segfrom(selectc.customer_id,c.primary_email_name,am_id,am_name,c.customer_first_name,c

hadoop - 我可以直接考虑类似于源 (Teradata) 表中存在的分区列的 Hive 分区列吗?

我可以直接考虑与源(Teradata)表中存在的分区列类似的Hive分区列吗?或者我是否考虑过任何其他参数来决定Hive分区列?请帮忙。 最佳答案 这不是最佳实践。如果您以这种方式创建数据,那么试图直接访问HDFS数据的人将不会在每个分区中找到“分区列”。例如,假设Teradata表按date列分区,然后如果hive表也按date分区,则HDFS分区表示2016-08-06将没有日期字段。因此,为了方便最终用户按虚拟列进行分区,请说date_d,它的值与日期列完全相同。 关于hadoop

hadoop - 为什么 sqoop 将导入中的 DECIMAL 类型从 Teradata 映射到 DOUBLE?

我有Sqoop版本:1.4.6当将数据从Teradata导入Hive时,我发现DECIMAL类型被转换为DOUBLE。我想知道为什么Hive具有完全等效的数据类型。 最佳答案 这是因为他们为所有RDBMS通用地编写了它。DECIMAL映射为DOUBLE。sourcecode的有用部分:publicstaticStringtoHiveType(intsqlType){switch(sqlType){caseTypes.INTEGER:caseTypes.SMALLINT:return"INT";caseTypes.VARCHAR:ca

hadoop - 使用 Informatica 将数据从 Teradata 提取到 Hadoop 中的最佳方式是什么?

通过并行数据移动将数据从Teradata数据库并行提取到Hadoop的最佳方法是什么?如果我们创建一个简单的作业,打开一个与Teradata数据库的session,加载巨大的表将花费大量时间。如果我们创建一组session来并行加载数据,并在每个session中进行选择,那么它将进行一组全表扫描Teradata以生成数据在并行流中加载数据并为Teradata带来不必要的工作负载的推荐最佳做法是什么? 最佳答案 如果Teradata像oracle一样支持表分区,您可以尝试基于分区点读取表,这将在读取中实现并行性...您的另一个选择是,

hadoop - 使用 sqoop 将数据从 Teradata 迁移到 Hive

我正在尝试使用sqoop将数据从teradata迁移到hive,但在teradata表中有一些字段具有graphic和vargraphic等数据类型,因此我们如何在hive中处理这些类型。 最佳答案 通过查看graphic&vargraphic的文档datatype明明是n个双字节字符的定长图形串和变长图形串。因此您可以尝试使用sqoop在Hive中映射这些列map-column-hive争论像这样:--map-column-hivegraphic_column1=STRING,vargraphic_column2=STRING

scala - 在 Spark 中将数据帧写入 Teradata

我在dataframe中有值,我在Teradata中创建了一个表结构。我的要求是将数据框加载到Teradata。但是我收到错误:我试过下面的代码:df.write.format("jdbc").option("driver","com.teradata.jdbc.TeraDriver").option("url","organization.td.intranet").option("dbtable",s"select*fromtd_s_zm_brainsdb.emp").option("user","userid").option("password","password").mod