博客
关于我
LRU的map+双链表实现(Go描述)
阅读量:749 次
发布时间:2019-03-22

本文共 2071 字,大约阅读时间需要 6 分钟。

面云账户时候问了LRU,具体实现的方式是map+双链表。Set和Get的时间复杂度都是O(1)。完整写一遍复习一下, 仅作记录

/** * @Author: lzw5399 * @Date: 2021/5/20 22:28 * @Desc: 基于map和双链表实现的LRU算法 */package mainimport "sync"func main() {	lru := NewLRUCache(3)	lru.Set(1, 233)	lru.Set(2, 666)	lru.Set(3, 777)	lru.Set(5, 888)	lru.Get(2)}// LRUCachetype LRUCache struct {	capacity int	cache    map[int]*LinkedNode	head     *LinkedNode	tail     *LinkedNode	sync.RWMutex}type LinkedNode struct {	key, value int	prev, next *LinkedNode}func NewLRUCache(capacity int) *LRUCache {	return &LRUCache{		capacity: capacity,		cache:    make(map[int]*LinkedNode, capacity),		head:     nil,		tail:     nil,		RWMutex:  sync.RWMutex{},	}}// - key是否已存在//   - 已存在, 将该节点移动到链表头部//   - 未存在, 判断cap是否已满//     - 满//       - 移除链表尾的节点//       - 新的node放入链表头//       - 新的node放入cache的map中//     - 未满//       - 新的node放入链表头//       - 新的node放入cache的map中func (l *LRUCache) Set(key int, value int) {	l.RLock()	node, exist := l.cache[key]	l.RUnlock()	if exist {		l.moveToHead(node)		return	}	node = &LinkedNode{		key:   key,		value: value,	}	l.Lock()	defer l.Unlock()	if l.capacity == len(l.cache) {		removedNode := l.removeTail()		delete(l.cache, removedNode.key)	}	l.addToHead(node)	l.cache[key] = node}// - 从map中获取是否存在//   - 不存在//     - 返回-1//   - 存在//     - 移到链表头部//     - 并返回具体的值func (l *LRUCache) Get(key int) int {	l.RLock()	node, exist := l.cache[key]	l.RUnlock()	if !exist {		return -1	}	l.moveToHead(node)	return node.value}func (l *LRUCache) moveToHead(node *LinkedNode) {	l.removeNode(node)	l.addToHead(node)}func (l *LRUCache) removeTail() *LinkedNode {	return l.removeNode(l.tail)}func (l *LRUCache) removeNode(node *LinkedNode) *LinkedNode {	// 头节点	if node.prev == nil {		l.head = node.next		node.next.prev = nil		return node	}	// 尾节点	if node.next == nil {		l.tail = node.prev		node.prev.next = nil		return node	}	// 中间节点	node.prev.next = node.next	node.next.prev = node.prev	return node}func (l *LRUCache) addToHead(node *LinkedNode) {	if l.head == nil {		l.tail = node	} else {		l.head.prev = node	}	node.prev = nil	node.next = l.head	l.head = node}

转载地址:http://qnkwk.baihongyu.com/

你可能感兴趣的文章
NIFI大数据进阶_NIFI监控功能实际操作_Summary查看系统和处理器运行情况_viewDataProvenance查看_---大数据之Nifi工作笔记0026
查看>>
NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
查看>>
NIFI大数据进阶_NIFI集群知识点_认识NIFI集群以及集群的组成部分---大数据之Nifi工作笔记0014
查看>>
NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
查看>>
NIFI大数据进阶_使用NIFI表达式语言_来获取自定义属性中的数据_NIFI表达式使用体验---大数据之Nifi工作笔记0024
查看>>
NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
查看>>
NIFI大数据进阶_内嵌ZK模式集群2_实际操作搭建NIFI内嵌模式集群---大数据之Nifi工作笔记0016
查看>>
NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
查看>>
NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_操作方法说明_01---大数据之Nifi工作笔记0033
查看>>
NIFI大数据进阶_实时同步MySql的数据到Hive中去_可增量同步_实时监控MySql数据库变化_操作方法说明_02---大数据之Nifi工作笔记0034
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_说明操作步骤---大数据之Nifi工作笔记0028
查看>>
NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
查看>>
NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南002---大数据之Nifi工作笔记0069
查看>>
NIFI集群_内存溢出_CPU占用100%修复_GC overhead limit exceeded_NIFI: out of memory error ---大数据之Nifi工作笔记0017
查看>>
NIFI集群_队列Queue中数据无法清空_清除队列数据报错_无法删除queue_解决_集群中机器交替重启删除---大数据之Nifi工作笔记0061
查看>>
NIH发布包含10600张CT图像数据库 为AI算法测试铺路
查看>>