jjzjj

HDinsight

全部标签

Azure 上的 Node.js 和 HBase (HDInsight)

我正在尝试从Node.js访问MicrosoftAzure上的HBase。我查看了不同的库,例如hbase和RESTAPI(webhcat)。我想要实现的是创建一个表并从Node.js上传数据。稍后我想对该数据集进行查询。不幸的是,Azure的文档在这方面没有太大帮助,因为它侧重于PowerShell和.NETSDK。我发现的一篇非常有用的文章是:http://blogs.msdn.com/b/bigdatasupport/archive/2014/04/22/querying-hdinsight-job-status-with-webhcat-via-native-powershel

hadoop - HDInsight - 群集没有响应

我刚开始研究HDInsight,但它不能正常工作..当我安装新的HDInsight时,它运行良好,但如果我重新启动或重新启动系统,服务器无法识别集群。消息显示为“您的集群“本地(hdfs)”没有响应。请单击此处导航到集群。”什么也不做。我该如何解决这个问题?我知道applicationpoolidentity中的一些问题,所以我厌倦了更改它使用powershell但仍然不起作用..我在带有IIS7.5的Win7旗舰版上运行它请帮帮我 最佳答案 首先,我会要求您检查所有HDInsight特定服务是否在您的集群中运行,如下所示,重启后:

hadoop - 如何配置和重新启动在 Azure 上运行的 HDInsight 群集?

具体来说,我想更改在MicrosoftAzure上运行的HDInsight集群中每个节点的最大映射器数量和最大缩减器数量。我使用远程桌面登录到头节点。我编辑了头节点上的mapred-site.xml文件并更改了mapred.tasktracker.map.tasks.maximum和mapred.tasktracker.reduce.tasks.maximum值。我尝试重新启动头节点,但无法重新启动。我使用start-onebox.cmd和stop-onebox.cmd脚本来尝试启动/停止HDInsight。然后我运行了一个流式mapreduce,将所需数量的reducer传递给had

hadoop - 您可以不通过 WebHCat (Templeton) 向 HDInsight 提交作业吗?

我正在使用一个提交MapReduce作业的现有工具,并且宁愿不必更改它以通过RESTAPI(WebHCat/Templeton)提交作业-有人知道这样做的方法吗?也许是一种将MapReduce服务公开到我想从中提交作业的服务器的方法? 最佳答案 Microsoft已发布HDInsight.NETSDK。参见http://www.windowsazure.com/en-us/manage/services/hdinsight/submit-hadoop-jobs-programmatically/

azure - 在 HDInsight 上使用 HQL 文件时出现 ParseExceptions

我正在学习本教程http://azure.microsoft.com/en-us/documentation/articles/hdinsight-use-hive/但是在将查询源更改为使用文件时卡住了。使用New-AzureHDInsightHiveJobDefinition-Query$queryString时一切正常但是当我尝试New-AzureHDInsightHiveJobDefinition-File"/example.hql"与example.hql存储在blob容器的“根”中,我得到ExitCode40000和标准错误中的以下内容:Logginginitializedu

Azure HDInsight : what is head node in a hadoop cluster?

我刚刚在HDInsight中设置了一个Hadoop集群并尝试开始使用Hadoop。我在集群上启用了远程登录并登录到它。我已将要处理的数据从我的桌面复制到这个盒子上。文档将此框称为头节点,并有一个额外的步骤,用于讨论将数据复制到hadoop集群。这让我很困惑。我有以下问题:当我将数据从桌面复制到我登录的盒子时,它实际上不是将数据复制到hadoop吗?第一个复制操作与第二个复制操作有何不同?什么是Hadoop中的头节点? 最佳答案 HDInsight集群中的头节点是运行构成Hadoop平台的一些服务的机器,包括名称节点和作业跟踪器。从广

java - HDInsight-Spark (spark-submit) 失败 - java.lang.NoSuchMethodError : com. microsoft.azure.storage.blob.CloudBlockBlob.startCopy

我们正在开发一个spark应用程序。它将托管在azureHDInsightSpark集群上。我们的用例是这样的,我们必须从azureblob存储中提取数据并使用spark处理数据,最后创建或将数据追加回azureblob存储。所以我们用了azure-storage-4.3.0.jar我们在eclipse项目中使用了Maven并添加了以下依赖com.microsoft.azureazure-storage4.3.0编译成功。甚至应用程序在本地机器上也能正常运行并且执行时没有任何问题。因此我们从eclipse创建了一个uber/fatjar并移植到我们的AzureHDInsight-Spa

hadoop - Hadoop/Spark 生态系统中的数据移动

我有一个基本问题,我希望能更好地理解它:背景假设我有一个巨大的CSV文件(50GB),我想将其提供给数据科学团队进行分析。理想情况下,团队中的每个成员都能够使用他们选择的语言与数据进行交互,数据不需要经常移动(考虑到它的大小)并且所有人都可以灵活地访问计算资源。建议的解决方案ApacheSpark似乎是满足上述要求的解决方案的当前领先者。Scala、Python、SQL和R都能够在灵活的计算资源之上(如果利用DataBricks、Azure、AWS、Cloudera等云提供商)访问其所在位置的数据。问题以MicrosoftAzure/HDInsight域为例。假设我们要将这个大型CSV

azure - 使用 Azure Blob 存储时的 HDInsight 群集大小

当使用HDInsight并选择AzureStorageBlob来存储需要计算的数据时,您仍然需要在配置新集群时选择数据节点的数量。如果您的数据存储在Azure存储Blob上,数据节点的数量有什么影响?blob中的数据是否实际复制到数据节点上? 最佳答案 如果您将数据放在AzureBlobStore上,它会保留在那里,并直接从Azure存储中读取。HDInsight集群中的数据节点有两个用途。首先,他们运行实际的计算作业,这些作业直接从Azure存储中读取。这并不像HDFS用户听起来那么疯狂,因为Azure的一致底层结构使存储保持良好

azure - 在 Azure 上的 HDInsight 群集上打开一个端口

我有一个MicrosoftAzureHDInsight集群。在节点上,我正在rdp'ing并启动一个绑定(bind)到端口8080的应用程序。我希望能够从集群外部连接到这个应用程序。我有我的集群连接字符串(https://xxxxx.azurehdinsight.net),但是当我尝试连接到它时,我超时了。我认为这是因为我没有向公众开放8080端口。我怎么能在集群下做到这一点我只有Hadoop服务和用户名.... 最佳答案 此时,我们不允许您控制/打开HDInsight群集上的其他网络端口。如果您希望Azure中的另一台计算机能够访