# 集合

# 常见的集合

  • Collection接口的子接口包括:Set(HashSet、TreeSet、LinkedHashSet)接口和List(ArrayList、LinkedList、Stack)接口
  • Map接口的实现类主要有:HashMap、TreeMap、Hashtable、ConcurrentHashMap

# HashMap和HashTable区别

  • HashMap没有考虑同步,是线程不安全的;Hashtable使用了synchronized关键字,是线程安全的;
  • HashMap允许K/V都为null;后者K/V都不允许为null;

# HashMap是怎么解决哈希冲突的

  • 使用链地址法(使用散列表)来链接拥有相同hash值的数据;
  • 使用2次扰动函数(hash函数)来降低哈希冲突的概率
  • 引入红黑树进一步降低遍历的时间复杂度,使得遍历更快;

# HashMap在JDK1.7和JDK1.8中有哪些不同

  • 存储结构 1.7数组 + 链表 1.8数组 + 链表 + 红黑树

# 为什么HashMap中String、Integer这样的包装类适合作为Key

  • String、Integer等包装类的特性能够保证Hash值的不可更改性和计算准确性,能够有效的减少Hash碰撞的几率

# 如果我想要让自己的Object作为K应该怎么办呢?

  • 重写hashCode()和equals()方法

# ConcurrentHashMap和Hashtable的区别?

  • ConcurrentHashMap 结合了 HashMap 和 HashTable 二者的优势。HashMap 没有考虑同步,HashTable 考虑了同步的问题。但是 HashTable 在每次同步执行时都要锁住整个结构。 ConcurrentHashMap 锁的方式是稍微细粒度的。

# ConcurrentHashMap实现

  • Node + CAS + Synchronized来保证并发安全进行实现

# HashSet是如何保证数据不可重复的

  • HashSet的底层其实就是HashMap,由于HashMap的K值本身就不允许重复,并且在HashMap中如果K/V相同时,会用新的V覆盖掉旧的V,然后返回旧的V,那么在HashSet中执行这一句话始终会返回一个false,导致插入失败,这样就保证了数据的不可重复性;

# BlockingQueue是什么?

  • Java.util.concurrent.BlockingQueue是一个队列,在进行检索或移除一个元素的时候,它会等待队列变为非空;当在添加一个元素时,它会等待队列中的可用空间。BlockingQueue接口是Java集合框架的一部分,主要用于实现生产者-消费者模式。

# 多线程

# 为什么用线程池

  • 线程创建和销毁过程,都有性能开销,还可以控制线程数量。
  • 使用场景:
    • 异步任务处理的,不是主流程的,比如业务中,清算以后要下发明细,但是还需要明细计提数据
    • 发服务号通知业务
    • MQ消息消费

# threadpoolexcutor,线程池参数

  • 核心线程数
  • 最大线程数
  • 空闲线程存活时间
  • 存活时间单位
  • 工作队列 :ArrayQ 有界 LinkedQ 无界 synchronusQ不缓存任务的阻塞队列 prorityQ优先级的无界阻塞队列
  • 线程工厂:设定线程名,是否守护线程
  • 拒绝策略:callerRuns直接执行被拒绝的线程,如果县城池shutdown则抛弃 *Abort (默认) 丢弃抛异常 Discard 丢弃 DiscardOldest 丢弃最老的一个,并将新的加入

# 线程池参数如何确定、出错如何处理、无可用线程如何处理

  • 确定参数
    • task,每秒任务数,假设500-1000
    • taskcost: 任务处理时间,假设0.1s
    • responseTime,系统最大容忍响应时间,假设1s
  • corePoolSize:

# lock

# AtomicInteger怎么用的

  • 原子操作的Integer类,通过线程安全的方式操作加减

# java中哪些方法创建多线程

  • thread
  • runable
  • callable
  • 线程池

# 线程的状态

  • 新建new
  • 就绪runable
  • 运行runing
  • 阻塞blocked
  • 死亡dead

# sleep\yield\join\wait方法区别

  • sleep不会释放锁,阻塞线程
  • wait放锁,等待其它线程notify
  • yield 暂停当前线程,线程重回就绪
  • join 当前调用join方法,等join的线程结束后,程序继续

# 为什么不推荐stop和destory方法结束线程运行

  • 直接杀死线程,不安全, interrupt() 方法来中断线程比较好

# synchronized

  • synchronized锁,多线程情况下,保证对实例变量线程安全
  • synchronized可以加在方法上和同步代码块,synchronized 加方法上或者sychronized(this)锁的都是对象,会对其它锁对象的同步方法阻塞
  • synchronized(非this)锁定代码块,其它同步方法是异步

# syschronized原理

  • 加synchronized关键字的,编译后的class文件是有加锁和退出锁的操作的,每个对象有一个monitor监视器,调用获取对象时,将值+1,离开-1。加减表示锁占有

# ReentrantLock 和 synchronized

  • ReentrantLock 类实现了 Lock,它拥有与 synchronized 相同的并发性和内存语义且它还具有可扩展性。
  • 精细化、需要自己加锁解锁

# volatile

  • 多个线程间对变量可见,加了这个关键字,每个线程对变量进行改变,都会把最新结果写回共享内存中,被其它线程可见
  • 使用这个声明的变量,编译器会避免指令重排
  • 指令重排 1。分配内存空间 2。初始化对象 3。将对象指向给刚分配的内存空间。2和3有可能重排序,多线程情况下,有可能出现问题

# threadLocal

  • ThreadLocal是一个本地线程副本变量工具类。线程间数据隔离

# countDownLatch

  • 同步计数器,用来协调多个线程之间的同步

# kafka

  • 分布式的发布、订阅模式的消息队列

# 模式

  • 点对点模式: 一对一
  • 发布订阅:一对多
    • 发布到topic的消息会被所有consumer消费(拉模式)

# 消息队列使用场景

  • 缓冲和削峰:上游数据时有突发流量,下游可能扛不住
  • 解耦和扩展性:项目开始的时候,并不能确定具体需求。消息队列可以作为一个接口层
  • 冗余:可以采用一对多的方式,一个生产者发布消息,可以被多个订阅topic的服务消费到
  • 健壮性:消息队列可以堆积请求,所以消费端业务即使短时间死掉,也不会影响主要业务的正常进行。
  • 异步通信:有些数据不需要即时处理。

# broker作用

  • producer往Brokers里面的指定Topic中写消息,cunsumer从Brokers里面拉取指定Topic的消息,消息中转站

# kafka中的 zookeeper 起到什么作用,可以不用zookeeper么

  • broker依赖于ZK,zookeeper 在kafka中还用来选举 和 检测broker是否存活。

# kafka主从同步数据

  • kafka使用ISR的方式很好的均衡了确保数据不丢失以及吞吐率。Follower可以批量的从Leader复制数据,而且Leader充分利用磁盘顺序读以及send file(zero copy)机制,这样极大的提高复制性能,内部批量写磁盘,大幅减少了Follower与Leader的消息量差。

# kafka producer如何优化打入速度

  • 增加线程
  • 提高 batch.size
  • 增加更多 producer 实例
  • 增加 partition 数
  • 设置 acks=-1 时,如果延迟增大:可以增大 num.replica.fetchers(follower 同步数据的线程数)来调解;
  • 跨数据中心的传输:增加 socket 缓冲区设置以及 OS tcp 缓冲区设置。

# kafka的message格式是什么样的

  • 一个Kafka的Message由一个固定长度的header和一个变长的消息体body组成

# kafka中consumer group 是什么概念

  • 是Kafka实现单播和广播两种消息模型的手段
  • 对于同一个topic,每个group都可以拿到同样的所有数据,但是数据进入group后只能被其中的一个worker消费

# Kafka中的消息是否会丢失和重复消费?ACK

  • 要确定Kafka的消息是否丢失或重复,从两个方面分析入手:消息发送和消息消费。

  • 消息发送,Kafka消息发送有两种方式:同步(sync)和异步(async),默认是同步方式,afka通过配置request.required.acks属性来确认消息的生产:

    • 0---表示不进行消息接收是否成功的确认;
    • 1---表示当Leader接收成功时确认;
    • -1---表示Leader和Follower都接收成功时确认;
    • acks=0,不和Kafka集群进行消息接收确认,则当网络异常、缓冲区满了等情况时,消息可能丢失;acks=1、同步模式下,只有Leader确认接收成功后但挂掉了,副本没有同步,数据可能丢失;
  • 消息消费,Kafka消息消费有两个consumer接口,Low-level API和High-level API:

    • Low-level API:消费者自己维护offset等值,可以实现对Kafka的完全控制;
    • High-level API:封装了对parition和offset的管理,使用简单;可能存在一个问题就是当消息消费者从集群中把消息取出来、并提交了新的消息offset值后,还没来得及消费就挂掉了,那么下次再消费时之前没消费成功的消息就“诡异”的消失了;
  • 解决办法: 针对消息丢失:同步模式下,确认机制设置为-1,即让消息写入Leader和Follower之后再确认消息发送成功;异步模式下,为防止缓冲区满,可以在配置文件设置不限制阻塞超时时间,当缓冲区满时让生产者一直处于阻塞状态;

  • 针对消息重复:将消息的唯一标识保存到外部介质中,每次消费时判断是否处理过即可。

# 为什么Kafka不支持读写分离?

  • 主写从读有 2 个很明 显的缺点:数据一致性问题。延时问题。

# Kafka中是怎么体现消息顺序性的?

  • kafka每个partition中的消息在写入时都是有序的,消费时,每个partition只能被每一个group中的一个消费者消费,保证了消费时也是有序的。 整个topic不保证有序。如果为了保证topic整个有序,那么将partition调整为1.

# springCloud

# 什么是微服物

  • 微服务架构是一种架构模式或者架构风格,它提倡将单一的应用程序划分为一组小的服务,每个服务运行在其独立的进程中,服务之间互相协调,互相配合,为用户提供最终价值。

# spring cloud 和dubbo区别

  • Dubbo采用RPC通信方式,SpringCloud采用基于HTTP的REST,后者牺牲了一部分性能换取更高灵活性,不存在代码层面强依赖。
  • 半自动和全自动,Spring Cloud可以和Spring家族完美融合,保证更高的稳定性,Dubbo需要对组件之外的东西有足够的了解。
  • Dubbo更像是一款RPC框架,而SpringCloud目标是微服务架构下的一站式解决方案。 ###微服务的优缺点
  • 优点:
    • 每个服务足够内聚,足够小。代码能够聚集在一个单一的业务功能上。
    • 开发简单,开发效率高,一个服务可能只需要干一件事。
    • 微服务是松耦合的,无论开发还是部署都是独立的。
  • 缺点:
    • 分布式增加了系统的复杂性
    • 多服务的运维压力比单服务大
    • 系统之间调用成本
    • 加大性能监控难度

# 技术栈

  • 服务注册发现:euraka
  • 服务调用:openFeign
  • 服务降级熔断:hystrix
  • 负载均衡:rinbon
  • 配置中心:appllo、springConfig
  • 服务网关:gateway

# euraka @EnableEurekaServer @EnableEurekaClient

# Eureka和Zookeeper区别

  • Eureka取CAP的AP,注重可用性,Zookeeper取CAP的CP注重一致性。
  • Zookeeper有Leader和Follower角色,Eureka各个节点平等。
  • Zookeeper采用过半数存活原则,Eureka采用自我保护机制解决分区问题。
  • eureka本质是一个工程,Zookeeper只是一个进程。

# Eureka心跳监测

  • 客户端30s(可配置)发送一次心跳到服务端。
  • 服务中心90s(可配置)未收到心跳会认为客户端挂了,会删掉服务信息。

# Eureka采用自我保护机制

  • 如果Eureka Server收到的心跳包不足正常值的85%(可配置)就会进入自我保护模式,在这种模式下,Eureka Server不会删除任何服务信息。
  • 自我保护机制意义:它不会从注册列表中剔除因长时间没收到心跳导致租期过期的服务,而是等待修复,直到心跳恢复正常之后,它自动退出自我保护模式。这种模式旨在避免因网络分区故障导致服务不可用的问题。

# Ribbon @LoadBalanced

# 负载均衡是什么

  • 单个组件可靠性不高,多组件来确保服务吞吐量,而如何依次访问不同的组件实例,就是负载均衡的意义

# Ribbon负载均衡和Nginx负载均衡的区别

  • Nginx是服务器负载均衡,客户端所有请求都交给Nginx,然后由Nginx实现转发请求,即负载均衡在服务端实现的。
  • Ribbon本地负载均衡,在调用微服务接口时,会在注册中心上获取注册信息服务列表后缓存在JVM本地,从而在本地实现RPC远程调用服务。

# Ribbon负载均衡策略 IRule

  • RoundRobinRule:轮询
  • RandomRule: 随机
  • RetryRule: 先按照轮询策略获取服务,如果获取失败则在指定时间重连
  • BestAvailableRule: 会过滤掉多次访问失败的服务,然后挑一个并发量最小的连接
  • AvailabilityFilteringRule:先过滤失败的服务,挑并发最小的连接
  • WeightedResponseTimeRule: 继承RoundRobinRule并增加了权重

# 负载均衡算法

  • rest接口第几次请求的数字对服务器集群数取余(请求次数%服务器数量)。每次服务器重启后计数重新开始。

# OpenFeign @FeignClient EnableFeignClients

# 超时控制

  • OpenFeign 默认的调用超时为1秒钟,如果调用过程超过了1秒,Feign客户端会直接返回报错,为了避免这种情况,我们有时需要对Feign客户端进行超时控制。

# OpenFeign 的日志增强

  • Feign提供了日志打印功能,我们可以通过配置调整日志级别,从而了解feign请求过程中http细节。

# Hystrix EnableEurekaClient

# 服务雪崩

  • 多个微服务调用的时候,如果链路上某个微服务调用时间过长或者不可用,对微服务的调用就会占用越来越多的系统资源,进而引起系统崩溃,这就是所谓的雪崩效应。

# Hystrix做什么

  • Hystrix能够保证在一个依赖出问题的时候,不会导致整体服务失败,避免级联故障,提高分布式系统弹性。
  • 当某个服务发生故障时,通过断路器的故障监控,向调用方返回一个符合预期的,可处理的备选响应(Fallback),而不是长时间的等待或者抛出调用方无法处理的异常。

# 降级、熔断 @FeignClient(value = "CLOUD-PAYMENT-HYSTRIX-SERVICE",fallback = FeignHystrixFallbackService.class)

  • 降级
    • 服务器没反应,返回一个友好的备用反应fallback
  • 熔断
    • 某个微服务出错不可用或者响应时间过长,会进行服务降级,进而熔断该节点微服务调用,快速返回错误的响应信息。当检测到该节点微服务响应正常时,恢复链路调用。
    • 熔断过程:服务降级->进而熔断->恢复调用链路
  • 服务限流
    • 秒杀高并发等操作,严禁一窝蜂的过来拥挤,大家排队,一秒N个,有序进行。

# 断路器涉及三个参数:快照时间窗、请求总数阈值、错误百分比阈值

  • 快照时间窗:断路器确定是否打开需要统计一些请求和错误数据,而统计的时间范围就是快照时间窗,默认最近10秒
  • 请求总数阈值:在快照时间窗内,必须满足请求总数阈值才会熔断。默认20,意味着10秒内,如果该hystrix命令的调用次数不超过20次,即使全部失败,断路器也不会打开。
  • 错误百分比阈值: 当在快照时间窗内,满足了请求总数阈值(30次),如果有15次调用失败,那失败的百分比就是50%,如果错误百分比阈值设置50%的情况下,断路器会打开。

# 熔断三种状态

  • 熔断打开:请求不再调用当前服务,内部设置时钟一般为MTTR(平均故障处理时间),当熔断打开时常超过所设时钟则到达熔断半开状态。
  • 熔断半开 :部分请求会根据规则调用当前服务,如果请求成功且符合 规则则认为当前服务恢复政策,关闭熔断。
  • 熔断关闭 : 熔断关闭不会对服务镜像熔断

# 熔断以后的流程

  • 熔断以后,服务调用将不再调用主逻辑,而是直接调用降级的fallback。
  • 主逻辑恢复:当熔断器打开进行熔断以后,hystrix启动一个休眠时间窗,超过这个时间窗,熔断半开,释放一次请求到主逻辑,如果调用正常,熔断关闭。主逻辑恢复。如果这次调用失败,断路器打开,休眠时间窗重新计时

# GateWay

# 三大核心概念

  • 路由Route:路由是构建网关的基本模块,它由ID,目标URI,一系列的断言和过滤器组成, 如果断言为TRUE,则匹配该路由
  • 断言Predicate:开发人员可以匹配HTTP请求中的所有内容,如果请求与断言相匹配则进行路由
  • 过滤Filter:指的是Spring框架中GatewayFilter的实例,使用过滤器,可以在请求被路由前或者之后对请求进行修改。

# GateWay工作流程

  • 客户端向Gateway发出请求,然后在Gateway Handle Mapping中找到与请求匹配的路由,将其发送到Gateway Web Handle 。
  • Handle 再通过指定的过滤器来将请求发送到我们实际的服务执行业务逻辑,然后返回。
  • 过滤器在发送代理请求之前 (pre) 或者之后 (post) 执行业务逻辑。
    • 在pre类型的过滤器可以执行参数校验、权限校验、流量监控、日志输出、协议转换等。
    • 在post类型过滤器中可以做响应内容、响应头的修改,日志输出、流量监控也有着重要作用。

# gateWay 过滤器实现

  • 实现接口 GlobalFilter Ordered

# springConfig

  • 集中管理配置文件
  • 运行期间动态调整的数据,可以放在配置中心,且不需要重启即可感知新的配置