HashSet 源码分析
public class HashSet<E>
extends AbstractSet<E>
implements Set<E>, Cloneable, java.io.Serializable
{
static final long serialVersionUID = -5024744406713321676L;
// HashSet 底层是使用 HashMap 来实现的
// transient 表示序列化的时候不自动写入,而是手动调用写入
private transient HashMap<E,Object> map;
// Dummy value to associate with an Object in the backing Map
// 作为 value 存储于 HashMap 中
private static final Object PRESENT = new Object();
public HashSet() {
map = new HashMap<>();
}
/**
* 根据传入集合设置 map 的初始化容量,默认为 16,或者是集合大小 * 1.75
* @param c 传入集合
*/
public HashSet(Collection<? extends E> c) {
map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
// 将集合中所有的数据放入 HashMap 中
addAll(c);
}
/**
* 会根据这个 2 个参数去初始化 HashMap 具体去看 HashMap 源码
* @param initialCapacity 初始化容量
* @param loadFactor 装载因子
*/
public HashSet(int initialCapacity, float loadFactor) {
map = new HashMap<>(initialCapacity, loadFactor);
}
public HashSet(int initialCapacity) {
map = new HashMap<>(initialCapacity);
}
/**
* 该方法是给 LinkedHashSet 使用的,具体请看 LinkedHashSet 源码分析
* @param initialCapacity
* @param loadFactor
* @param dummy 无实际意义只是为了区分的重载方法
*/
HashSet(int initialCapacity, float loadFactor, boolean dummy) {
map = new LinkedHashMap<>(initialCapacity, loadFactor);
}
/**
* HashSet 只能使用迭代进行遍历,因为它底层的实现是 HashMap 不支持随机访问元素,
* 所以需要通过 HashMap 的迭代器来进行元素遍历
* @return
*/
public Iterator<E> iterator() {
return map.keySet().iterator();
}
public int size() {
return map.size();
}
public boolean isEmpty() {
return map.isEmpty();
}
public boolean contains(Object o) {
return map.containsKey(o);
}
/**
* 添加元素的时候,它的不包含重复元素是建立在 map 上的
* @param e
* @return
*/
public boolean add(E e) {
return map.put(e, PRESENT)==null;
}
public boolean remove(Object o) {
return map.remove(o)==PRESENT;
}
public void clear() {
map.clear();
}
/**
* HashSet 实现了 Cloneable 接口,支持 clone
* clone 一份 HashSet 基础数据
* clone 一份 HashMap 数据
* 重新组装返回
* @return
*/
@SuppressWarnings("unchecked")
public Object clone() {
try {
HashSet<E> newSet = (HashSet<E>) super.clone();
newSet.map = (HashMap<E, Object>) map.clone();
return newSet;
} catch (CloneNotSupportedException e) {
throw new InternalError(e);
}
}
/**
* 序列化写出方法
* @param s
* @throws java.io.IOException
*/
private void writeObject(java.io.ObjectOutputStream s)
throws java.io.IOException {
// 写出非 static 和非 transient 属性
s.defaultWriteObject();
// 写出容量和装载因子
s.writeInt(map.capacity());
s.writeFloat(map.loadFactor());
// 写出数据长度
s.writeInt(map.size());
// 写出所有的数据
for (E e : map.keySet())
s.writeObject(e);
}
/**
* 序列化读入方法
* @param s
* @throws java.io.IOException
* @throws ClassNotFoundException
*/
private void readObject(java.io.ObjectInputStream s)
throws java.io.IOException, ClassNotFoundException {
// 读入非 static 和非 transient 属性
s.defaultReadObject();
// 读出长度,长度 < 0 抛出错误
int capacity = s.readInt();
if (capacity < 0) {
throw new InvalidObjectException("Illegal capacity: " +
capacity);
}
// 读出装载因子,校验装载因子的合法性
float loadFactor = s.readFloat();
if (loadFactor <= 0 || Float.isNaN(loadFactor)) {
throw new InvalidObjectException("Illegal load factor: " +
loadFactor);
}
// 读取数据长度,并且校验合法性
int size = s.readInt();
if (size < 0) {
throw new InvalidObjectException("Illegal size: " +
size);
}
// 读出容量大小,如果小于默认值则赋予默认容量大小
capacity = (int) Math.min(size * Math.min(1 / loadFactor, 4.0f),
HashMap.MAXIMUM_CAPACITY);
// 创建 HashMap 或者 LinkedHashMap
map = (((HashSet<?>)this) instanceof LinkedHashSet ?
new LinkedHashMap<E,Object>(capacity, loadFactor) :
new HashMap<E,Object>(capacity, loadFactor));
// 依次读取响应数据长度的值放入 map 中
for (int i=0; i<size; i++) {
@SuppressWarnings("unchecked")
E e = (E) s.readObject();
map.put(e, PRESENT);
}
}
/**
* 可以分割的迭代器,主要用于多线程并行迭代时候使用
* @return
*/
public Spliterator<E> spliterator() {
return new HashMap.KeySpliterator<E,Object>(map, 0, -1, 0, 0);
}
}
总结
- HashSet 通过 HashMap 不具有重复 key 来保证不包含重复元素,如果已经存在对应的 key 则添加失败
- 可以存储为 null 的元素,因为 HashMap 的 key 可以为 null
- HashSet 是无序的,因为 HashMap 的实现是数组 + 链表的形式,而 key 将其 hash 后跟 map.size() – 1 做 &
- 得到的数组下标是随机分布的,具体细节请看 HashMap 的源码实现
- HashSet 未做线程安全同步
- fail-fast,当使用迭代器访问元素的时候,该元素被修改或者被删除了,就会抛ConcurrentModificationException 是通过维护了一个 modCount 变量来实现的,每次修改这个值都会加,而在进行遍历中会先去检查这个值发现这个数据和遍历前记录的值不一致则抛错
- 如果能事先知道容量大小最好直接指定好容量,因为可以避免或者减少 HashMap 的扩容次数以提高性能