jjzjj

RedisLabs

全部标签

apache-spark - 将 spark-redis 连接器添加为依赖项时出现问题

我正在尝试使用RedisLabs提供的spark-redis连接器。我可以在我的本地环境中尝试,下载必要的jars文件。但是当我尝试在EMR中执行它时,我需要将它添加到我的built.sbt文件中,如下所示:libraryDependencies+="redis.clients"%"jedis"%"2.9.0"libraryDependencies+="org.apache.commons"%"commons-pool2"%"2.5.0"libraryDependencies+="RedisLabs"%"spark-redis"%"0.3.2"但我收到一条错误消息,提示无法解决该依赖项

apache-spark - 将 spark-redis 连接器添加为依赖项时出现问题

我正在尝试使用RedisLabs提供的spark-redis连接器。我可以在我的本地环境中尝试,下载必要的jars文件。但是当我尝试在EMR中执行它时,我需要将它添加到我的built.sbt文件中,如下所示:libraryDependencies+="redis.clients"%"jedis"%"2.9.0"libraryDependencies+="org.apache.commons"%"commons-pool2"%"2.5.0"libraryDependencies+="RedisLabs"%"spark-redis"%"0.3.2"但我收到一条错误消息,提示无法解决该依赖项

node.js - 用于 NodeJS 应用程序的 Hazelcast 与 Redis(或 RedisLabs)

我有一个应用程序有超过2TB的数据要存储在缓存中,将使用NodeJSAPI访问这些数据。对于NodeJS应用程序,Hazelcast或Redis(或RedisLabs)是更好的选择?考虑以下标准?NodeJSAPI支持,包括连接池。看起来HazelCast没有NodeJSAPI我知道在基准测试中,Hazelcast由于采用了多线程实现而且可扩展性更快。但是我们可以使用NodeJS(需要设置数据结构)有效地利用这些好的特性吗?最后,我们可以在RedisLabs中拥有多个分片,这就像让多个线程或进程处理各自的数据block一样,在这种情况下,我相信Hazelcast由于多线程性质而具有的优

node.js - 用于 NodeJS 应用程序的 Hazelcast 与 Redis(或 RedisLabs)

我有一个应用程序有超过2TB的数据要存储在缓存中,将使用NodeJSAPI访问这些数据。对于NodeJS应用程序,Hazelcast或Redis(或RedisLabs)是更好的选择?考虑以下标准?NodeJSAPI支持,包括连接池。看起来HazelCast没有NodeJSAPI我知道在基准测试中,Hazelcast由于采用了多线程实现而且可扩展性更快。但是我们可以使用NodeJS(需要设置数据结构)有效地利用这些好的特性吗?最后,我们可以在RedisLabs中拥有多个分片,这就像让多个线程或进程处理各自的数据block一样,在这种情况下,我相信Hazelcast由于多线程性质而具有的优

redis - 如何制作地理分布式Active-Active redis集群架构

问题陈述:我的应用程序将部署在3个不同的区域,即:北美、欧洲和亚洲。我想构建一个具有以下约束的redis架构:每个区域都应该有自己的Redis集群,可以有多个主从。每个区域的集群都应该能够在本地处理写入和读取。让我详细说明第二点:我希望所有地区都应该有自己的数据副本。因此,欧洲应用程序写入的任何新数据都应该进入欧洲区域的redis集群,而不是任何其他区域。然后可以将此数据(异步)复制到亚洲和北美地区。到目前为止,我发现我无法使用redissentinel,因为我想要多个masters。我不能将(我认为)redis集群与不同区域的主节点一起使用,因为这会将数据分片到所有区域,因此欧洲的应

redis - 如何制作地理分布式Active-Active redis集群架构

问题陈述:我的应用程序将部署在3个不同的区域,即:北美、欧洲和亚洲。我想构建一个具有以下约束的redis架构:每个区域都应该有自己的Redis集群,可以有多个主从。每个区域的集群都应该能够在本地处理写入和读取。让我详细说明第二点:我希望所有地区都应该有自己的数据副本。因此,欧洲应用程序写入的任何新数据都应该进入欧洲区域的redis集群,而不是任何其他区域。然后可以将此数据(异步)复制到亚洲和北美地区。到目前为止,我发现我无法使用redissentinel,因为我想要多个masters。我不能将(我认为)redis集群与不同区域的主节点一起使用,因为这会将数据分片到所有区域,因此欧洲的应

c# - 使用 StackExchange.Redis 从 Redis 获取多个哈希值

我需要从Redis服务器获取大约10k的哈希值。由于在redis中没有获取多个哈希的命令,我使用db.HashGetAllAsync()调用遍历所有键,然后等待所有任务完成。尽管它有效,但在这些调用期间,我在RedisLabs仪表板上看到了显着的延迟峰值。有什么方法可以同时得到很多哈希值吗?也许有任何ConnectionMultiplexer设置可以帮助解决这种情况? 最佳答案 没有varadichgetall,所以是的:最简单的方法是通过管道传输大量单独的hgetall。您甚至可能做的唯一另一件事是使用Lua脚本(eval/eva

c# - 使用 StackExchange.Redis 从 Redis 获取多个哈希值

我需要从Redis服务器获取大约10k的哈希值。由于在redis中没有获取多个哈希的命令,我使用db.HashGetAllAsync()调用遍历所有键,然后等待所有任务完成。尽管它有效,但在这些调用期间,我在RedisLabs仪表板上看到了显着的延迟峰值。有什么方法可以同时得到很多哈希值吗?也许有任何ConnectionMultiplexer设置可以帮助解决这种情况? 最佳答案 没有varadichgetall,所以是的:最简单的方法是通过管道传输大量单独的hgetall。您甚至可能做的唯一另一件事是使用Lua脚本(eval/eva

go - 重新设计 : getting dial tcp: connect: cannot assign requested address

我有一个应用程序每秒对redis进行大约400次读取和每秒100次写入(托管在redislabs上)。该应用程序使用github.com/garyburd/redigo包作为redis代理。我有两个函数,它们是唯一用于读写的函数:funcgetCachedVPAIDConfig(keystring)chan*cachedVPAIDConfig{c:=make(chan*cachedVPAIDConfig)gofunc(){p:=pool.Get()deferp.Close()switchp.Err(){casenil:item,err:=redis.Bytes(p.Do("GET",k

go - 重新设计 : getting dial tcp: connect: cannot assign requested address

我有一个应用程序每秒对redis进行大约400次读取和每秒100次写入(托管在redislabs上)。该应用程序使用github.com/garyburd/redigo包作为redis代理。我有两个函数,它们是唯一用于读写的函数:funcgetCachedVPAIDConfig(keystring)chan*cachedVPAIDConfig{c:=make(chan*cachedVPAIDConfig)gofunc(){p:=pool.Get()deferp.Close()switchp.Err(){casenil:item,err:=redis.Bytes(p.Do("GET",k
12