jjzjj

hadoop - Hadoop 和 Solr 的集成

根据我的研究,我可以集成hadoop和solr。我已经下载并安装了它们。但无法将它们相互融合。而且我也找不到适合此目的的教程。我使用Ubuntu14.04.02、ApacheHadoop2.6.0和Solr5.2.1。如何在我的机器上集成Hadoop和Solr?注意:我将hadoop安装为单节点。我对这个概念也很陌生。 最佳答案 您可以通过两种方式将Solr与hadoop一起使用基于文档在Hbase中使用lily索引器因此,如果您想使用HDFS中存在的文档由SOLR进行索引。您需要按照以下步骤操作:步骤A.solrctl--zkzo

hadoop - Cloudera 用户不允许在 hadoop 上操作 hdfs 系统

我正在尝试在hdfshadoop文件系统中创建一个文件夹,但它不允许我使用用户cloudera或root创建文件夹。我应该配置什么以使其允许我使用hier是我的尝试:[cloudera@quickstart~]$sudohadoopfs-mkdir/solr/test_coremkdir:Permissiondenied:user=root,access=WRITE,inode="/solr":solr:supergroup:drwxr-xr-x[cloudera@quickstart~]$suPassword:[root@quickstartcloudera]#hadoopfs-mk

java - 将 Apache Nutch 2.3 与 Hbase 0.94.14 和 Solr 5.2.1 集成时出错

我正在将Nutch与Hbase和Solr集成。启动Hadoop和Hbase服务后,我在NutchHome中运行如下命令sudo-Ebin/crawlurls/seed.txtTestCrawlhttp://localhost:8983/solr/2我遇到了这些错误:InjectingseedURLs/usr/local/apache-nutch-2.3.1/runtime/local/bin/nutchinjecturls/seed.txt-crawlIdTestCrawlInjectorJob:startingat2016-05-2615:41:14InjectorJob:Injec

java - 如何在HBase中存储和查询范围数据?

目前,我在Solr中存储Ip映射数据,它有点像这样:Ip-FromIp-ToCountry这形成了一个记录(文件)。当我得到一个IP作为输入时,我查询Solr以找出它所属的地区(国家)。查询很简单——ip>=ipFrom和ip因此,我正在考虑使用其他存储方式来存储此类数据。HBase是否合适?如果合适,存储和查询此类数据的理想方式是什么? 最佳答案 我的理解:您想传递Ip(从或到)并且您想要查找特定于该国家或地区。是的。您将数据存储在Hbase中并使用filters进行查询如果您想将Hbase用作唯一的数据存储。根据我的经验,Sol

java - 即时搜索 PB 级数据

我需要在CSV甲酸盐文件中搜索超过PB的数据。使用LUCENE建立索引后,索引文件的大​​小是原始文件的两倍。是否可以减少索引文件的大​​小???HADOOP中如何分发LUCENE索引文件以及如何在搜索环境中使用?或者是否有必要,我应该使用solr来分发LUCENE索引???我的要求是对PB级文件进行即时搜索.... 最佳答案 Hadoop和MapReduce基于批处理模型。您不会从中获得即时响应速度,这不是该工具的设计目的。您也许可以使用Hadoop加快索引速度,但它不会执行您想要的查询操作。看看Lucandra,这是一个基于Ca

hadoop - 从配置单元导入数据时出现 Solr DIH 错误

我正在尝试在solr5.1中加载和索引hdfs数据。我将数据存储在一个配置单元表中,并使用DIH导入和索引。我遵循了链接中提供的步骤SolrDIH.我在DIH上看不到任何关于hive的Material,所以想检查是否有人在这方面工作过。也在寻找关于上述场景的一些建议。 最佳答案 我能够让它工作。它的工作原理非常有趣。我们首先获得了hive2jar,并通过java使其运行以检查连接性。然后我们意识到要使用的jar是:hadoop-common-2.7.0-mapr-1703.jarhive-common-2.1.1-mapr-1703

linux - 由于 nutch linux 实例的 tmp 目录中的作业缓存,磁盘空间被填满

我是新手。我们已经设置了solr环境,我们发现我们正面临一个问题。磁盘空间已被100%使用。当我们调试它时,我们看到以下位置的作业缓存正在使用更多空间(大约70%)。“/tmp/hadoop-root/mapred/local/taskTracker/root/jobcache/”。我搜索了很多论坛以了解这个jobcache文件夹到底包含什么。任何人都可以帮助我了解此jobcache文件夹包含什么以及如何限制此tmp文件夹不使用空间。如果我删除jobcache文件夹并使用mkdir命令重新创建它会有什么影响?提前致谢。 最佳答案 您

solr - Hadoop 创建一个索引并将其添加到分布式 SOLR 中……这可能吗?我应该使用 Nutch 吗? ..Cloudera?

我可以使用MapReduce框架创建索引并以某种方式将其添加到分布式Solr中吗?我有大量信息(日志文件和文档)将通过互联网传输并存储在我的数据中心(或亚马逊)中。它需要通过我们复制的Solr安装进行解析、索引和最终搜索。这是我提出的架构:使用MapReduce框架(Cloudera、Hadoop、Nutch,甚至DryadLinq)为索引准备这些文档将这些文档索引为Lucene.NET/Lucene(java)兼容的文件格式将该文件部署到我所有的Solr实例激活那个复制的索引如果可以的话,我需要选择一个MapReduce框架。由于Cloudera是供应商支持的,并且有大量补丁未包含在

hadoop - MapReduceIndexerTool - 在 Solr 中索引 HDFS 文件的最佳方式?

我有一个要求,我必须将HDFS文件(包括TXT、PDF、DOCX和其他丰富的文档)索引到Solr。目前,我正在使用LucidWorks连接器的DirectoryIngestMapper来实现相同的目的。https://github.com/lucidworks/hadoop-solr但我不能使用它,因为它有一定的局限性(主要是你不能指定要考虑的文件类型)。所以现在我正在研究使用MapReduceIndexerTool的可能性。但它没有很多初学者(我的意思是绝对基础!)级别的示例。有人可以发布一些示例链接以开始使用MapReduceIndexerTool吗?有没有其他更好或更简单的方法来

hadoop - CDH 5.7 上的 Streamsets solrcloud 无法连接到 Solr

我在CDH5.7.0版上使用流集从HDFS(源)加载文件并在Solr(目标)上创建记录的示例工作流程。验证失败-SOLR_03-无法连接到Solr实例:org.apache.solr.common.cloud.ZooKeeperException::ZooKeeper连接字符串。但是,从日志中,我看到它能够连接到zookeeper,但是,在调用/live_nodeszookeeperapi后以某种方式关闭了session。2016-06-0316:30:21,336INFOorg.apache.solr.common.cloud.ConnectionManager:Clientisco