博客
关于我
LRU的map+双链表实现(Go描述)
阅读量:749 次
发布时间:2019-03-22

本文共 2071 字,大约阅读时间需要 6 分钟。

面云账户时候问了LRU,具体实现的方式是map+双链表。Set和Get的时间复杂度都是O(1)。完整写一遍复习一下, 仅作记录

/** * @Author: lzw5399 * @Date: 2021/5/20 22:28 * @Desc: 基于map和双链表实现的LRU算法 */package mainimport "sync"func main() {	lru := NewLRUCache(3)	lru.Set(1, 233)	lru.Set(2, 666)	lru.Set(3, 777)	lru.Set(5, 888)	lru.Get(2)}// LRUCachetype LRUCache struct {	capacity int	cache    map[int]*LinkedNode	head     *LinkedNode	tail     *LinkedNode	sync.RWMutex}type LinkedNode struct {	key, value int	prev, next *LinkedNode}func NewLRUCache(capacity int) *LRUCache {	return &LRUCache{		capacity: capacity,		cache:    make(map[int]*LinkedNode, capacity),		head:     nil,		tail:     nil,		RWMutex:  sync.RWMutex{},	}}// - key是否已存在//   - 已存在, 将该节点移动到链表头部//   - 未存在, 判断cap是否已满//     - 满//       - 移除链表尾的节点//       - 新的node放入链表头//       - 新的node放入cache的map中//     - 未满//       - 新的node放入链表头//       - 新的node放入cache的map中func (l *LRUCache) Set(key int, value int) {	l.RLock()	node, exist := l.cache[key]	l.RUnlock()	if exist {		l.moveToHead(node)		return	}	node = &LinkedNode{		key:   key,		value: value,	}	l.Lock()	defer l.Unlock()	if l.capacity == len(l.cache) {		removedNode := l.removeTail()		delete(l.cache, removedNode.key)	}	l.addToHead(node)	l.cache[key] = node}// - 从map中获取是否存在//   - 不存在//     - 返回-1//   - 存在//     - 移到链表头部//     - 并返回具体的值func (l *LRUCache) Get(key int) int {	l.RLock()	node, exist := l.cache[key]	l.RUnlock()	if !exist {		return -1	}	l.moveToHead(node)	return node.value}func (l *LRUCache) moveToHead(node *LinkedNode) {	l.removeNode(node)	l.addToHead(node)}func (l *LRUCache) removeTail() *LinkedNode {	return l.removeNode(l.tail)}func (l *LRUCache) removeNode(node *LinkedNode) *LinkedNode {	// 头节点	if node.prev == nil {		l.head = node.next		node.next.prev = nil		return node	}	// 尾节点	if node.next == nil {		l.tail = node.prev		node.prev.next = nil		return node	}	// 中间节点	node.prev.next = node.next	node.next.prev = node.prev	return node}func (l *LRUCache) addToHead(node *LinkedNode) {	if l.head == nil {		l.tail = node	} else {		l.head.prev = node	}	node.prev = nil	node.next = l.head	l.head = node}

转载地址:http://qnkwk.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从Oracle11G同步数据到Mysql_亲测可用_解决数据重复_数据跟源表不一致的问题---大数据之Nifi工作笔记0065
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
查看>>
NIFI分页获取Postgresql数据到Hbase中_实际操作---大数据之Nifi工作笔记0049
查看>>