在使用 GORM 时,假删除(Soft Delete)是一种常见的需求,目的是在删除数据时,并不从数据库中物理删除记录,而是通过标记某个字段为“已删除”状态来实现。这样可以保留数据的历史记录,同时避免在查询时看到这些已删除的数据。 1. 假删除的实现 在 GORM 中,假删除通常是通过在数据库表中添加一个 deleted_at 字段来实现的。GORM 内置了对假删除的支持,通过 gorm.Model 或自定义的结构体字段来实现。 1.1 使用 gorm.Model 实现假删除 gorm.Model 是 GORM 提供的一个内置结构体,它包含了 ID、CreatedAt、UpdatedAt 和 DeletedAt 字段。如果你的结构体嵌套了 gorm.Model,则默认启用了假删除功能。 package main import ( "fmt" "github.com/jinzhu/gorm" _ "github.com/jinzhu/gorm/dialects/sqlite" ) type User struct { gorm.Model // 包含 ID, CreatedAt, Upd.... 认识gorm假删除 gorm
Slog、Zap 和 Logrus 是 Go 语言中常见的日志库,它们各自有不同的特点和使用场景。下面我们对这三者进行比较,帮助你根据实际需求选择适合的日志库。 1. 性能 Slog: 性能:slog 是 Go 1.21 引入的原生日志库,经过精心优化,提供高效的结构化日志记录。它的性能表现通常较好,但相较于 zap,可能会稍微逊色一些,尤其是在高并发、高吞吐量的场景下。 适用场景:适用于需要结构化日志、较好的性能和原生支持的场景,尤其是 Go 1.21 或更高版本的项目。 Zap: 性能:Zap 是一个高性能的日志库,特别注重性能优化。它使用预分配内存池,避免了反射和不必要的接口调用,因此在高吞吐量、低延迟的场景下表现非常出色。 适用场景:适用于高性能、高并发的系统,尤其是需要极低开销的场景,比如微服务、分布式系统等。 Logrus: 性能:Logrus 性能上不如 zap,由于其设计比较灵活,使用了较多的接口和反射,因此性能稍逊。虽然对于大多数常规应用来说性能已经足够,但在高性能要求的场景中可能不如 zap 高效。 适用场景:适用于大部分普通应用,特别是开发阶段和小型项目中。.... slog,zap,logrus比较 log
logrus 是一个功能丰富的、结构化的日志库,广泛用于 Go 语言项目中。它是一个相对易用且功能强大的日志工具,支持多种输出格式和日志级别,同时支持日志的钩子(hook)和日志的自定义配置。 主要特点 结构化日志: logrus 支持结构化日志,可以将日志以键值对的形式记录,使得日志数据更容易被机器分析、存储和查询。结构化日志对于日志聚合和分析非常有用,尤其在分布式系统中。 日志级别: logrus 提供了丰富的日志级别支持。常见的日志级别包括: Panic:表示严重错误,程序应该立即退出。 Fatal:表示致命错误,程序通常会退出,但比 Panic 稍微温和。 Error:表示错误事件,通常程序不会退出。 Warn:表示警告信息。 Info:用于输出常规的、对用户有用的信息。 Debug:用于调试信息,适用于开发时日志。 Trace:用于最详细的调试信息,记录每个程序步骤。 多种输出格式: logrus 支持多种日志格式,包括: Text format(文本格式):人类可读的日志。 JSON format(JSON格式):结构化日志,适用于日志聚合系统(如 ELK、Splunk.... 认识高性能日志库logrus logrus
zap 是一个由 Uber 开发的高性能、结构化日志库,旨在提供一种快速、可扩展的日志记录方式。它特别适合于需要高吞吐量、低延迟的应用场景,比如微服务、分布式系统、以及高性能服务的日志管理。 主要特点 高性能: zap 经过高度优化,特别是在性能方面。它被设计为可以在生产环境中以极低的开销记录日志,因此非常适合需要高并发、高性能的应用。 结构化日志: zap 支持结构化日志,这意味着日志数据可以以键值对的形式记录,便于机器解析和分析。结构化日志是现代日志管理的核心,尤其在日志聚合和搜索时非常有效。 可配置的日志级别: zap 提供了多个日志级别,以便灵活控制不同级别的日志输出。常见的日志级别包括: Debug Info Warn Error DPanic Panic Fatal 日志输出的灵活性: zap 支持多种输出格式(JSON、文本等),并且能够将日志写入不同的目标(控制台、文件、网络等)。它可以同时支持多个输出目标。 低开销: zap 提供了两种模式:Sugared Logger 和 Logger,其中 Logger 提供更高效的日志记录(避免了额外的接口调用),而 Suga.... 认识高性能日志库zap zap
Slog 是 Go 1.21 引入的官方日志库,旨在为 Go 提供一个更现代、更灵活的日志框架。与传统的日志库(如 log 包)相比,slog 提供了更多的功能,特别是在日志的结构化、定制化和扩展性方面。它被设计为支持更复杂的日志记录需求,适用于现代的应用程序,特别是在微服务、分布式系统和云原生应用场景中。 主要特点 结构化日志: slog 允许生成结构化的日志,而不仅仅是简单的字符串日志。结构化日志使得日志数据更容易被机器分析、索引和查询,便于在分布式系统中进行日志聚合和分析。 灵活的日志级别: slog 提供了多个日志级别,允许开发者灵活地控制日志的详细程度,帮助在不同的环境中调试和监控应用。 常见的日志级别包括: LevelDebug:调试信息 LevelInfo:常规信息 LevelWarn:警告信息 LevelError:错误信息 LevelFatal:致命错误信息 多种输出方式: slog 支持多种输出方式,可以输出到控制台、文件、网络等。它支持通过配置来改变输出的目标和格式。 可定制的日志处理器: slog 通过定义 Handler(处理器)来控制日志的输出,可以根据需.... 认识官方日志库slog slog
要在 Go 中使用 Viper 从 Consul 获取配置,你需要结合使用 Viper 和 Consul 客户端。Consul 是一个流行的分布式系统管理工具,用于服务发现、健康检查和配置管理。通过使用 Consul 的 Key-Value 存储功能,你可以将应用的配置存储在 Consul 中,并在应用中动态加载。 Viper 本身不直接支持 Consul,但你可以通过 consul-api 或 consul 官方客户端与 Viper 配合使用,从 Consul 获取配置并加载到 Viper 中。 步骤 安装依赖 安装 Viper 和 Consul 客户端。 go get github.com/spf13/viper go get github.com/hashicorp/consul/api 设置 Consul 客户端 Consul 提供了一个 Go 客户端库 consul/api,可以通过它与 Consul 进行交互,读取存储在 Consul 中的配置。 从 Consul 获取配置并加载到 Viper 假设在 Consul 中存储了如下配置数据: { "app": { "name.... viper从consul获取配置 viper
Viper 作为一个灵活的配置管理库,虽然没有直接内置对 Nacos 的支持,但你可以通过将 Nacos 客户端与 Viper 配合使用,从 Nacos 获取配置数据并将其加载到 Viper 中。Nacos 是一个开源的动态服务发现、配置管理和服务管理平台,常用于微服务架构中。 为了实现从 Nacos 获取配置并与 Viper 结合,你可以使用 nacos-sdk-go(Nacos 的 Go 客户端)来从 Nacos 获取配置,然后将其与 Viper 结合。 1. 安装依赖 首先,安装 Viper 和 nacos-sdk-go: go get github.com/spf13/viper go get github.com/nacos-group/nacos-sdk-go/v2 2. Nacos 客户端设置 Nacos 客户端用于从 Nacos 服务器获取配置。你需要设置好 Nacos 的服务器地址和其他参数。 3. 从 Nacos 获取配置并加载到 Viper 假设我们已经在 Nacos 中存储了类似如下的配置: { "app": { "name": "MyApp", "port".... viper从nacos获取配置 viper
Viper 支持从多种来源获取配置,除了文件、环境变量、命令行标志等外,还可以通过与 etcd 集成,从 etcd 中获取配置数据。etcd 是一个高可用的分布式键值存储,通常用于存储配置和服务发现等信息。 要让 Viper 从 etcd 获取配置,你需要使用 viper 和 etcd 的集成。虽然 Viper 本身没有直接内置 etcd 的支持,但我们可以通过一个简单的步骤将它们结合起来。 步骤 安装必要的包 viper 用于加载配置。 etcd 客户端用于从 etcd 获取配置。 go get github.com/spf13/viper go get go.etcd.io/etcd/clientv3 连接到 etcd 使用 etcd 客户端来连接 etcd,然后通过 Viper 加载从 etcd 获取的配置。 示例代码 以下是一个示例,展示如何从 etcd 获取配置并使用 Viper 管理这些配置。 package main import ( "context" "fmt" "log" "github.com/spf13/viper" "go.etcd.io/etcd/clie.... viper 从etcd获取配置 viper
Viper 是 Go 语言中一个非常流行的配置管理库,旨在使配置文件的读取、解析和管理变得更加简单。它支持多种配置文件格式(如 JSON、YAML、TOML、HCL、INI 等)以及环境变量、命令行标志等不同来源的配置,并且支持配置文件的热加载(即动态更新配置而无需重启应用)。 Viper 的主要特点 多种配置来源支持: 支持从多个来源加载配置,如:文件(JSON、YAML、TOML 等)、环境变量、命令行标志、远程配置(如 Consul、Etcd)。 自动解析和绑定: Viper 能够自动将配置数据解析到 Go 的数据结构中(如结构体、map、slice 等)。 热加载: 支持对配置文件的动态更新,修改配置文件后,Viper 能够检测文件变化并重新加载配置。 环境变量绑定: 可以将环境变量绑定到 Viper 中,从而让你的应用程序支持环境变量配置。 灵活的配置读取: 支持多层次的配置,支持嵌套结构体或者 map 结构的读取和映射。 命令行标志的支持: 可以将命令行的标志与配置进行绑定,使得命令行参数优先于配置文件中的设置。 安装 Viper 你可以使用 go get 安装.... 一个强大的配置管理库viper viper
在 Go 中实现定时任务可以通过多种方式进行,其中最常见的方式是使用标准库 time 提供的功能,或者使用第三方库来简化定时任务的调度。下面我们会详细介绍这几种方法。 1. 使用 time 包 Go 的标准库 time 提供了 time.Tick 和 time.After 等功能,可以实现定时任务。 示例:每隔 1 秒执行一次任务 package main import ( "fmt" "time" ) func main() { // 创建一个定时器,每隔1秒发出一次信号 ticker := time.NewTicker(1 * time.Second) defer ticker.Stop() // 程序退出时停止 ticker for { select { case <-ticker.C: // 当 ticker 每秒发出信号时执行 fmt.Println("Task executed at", time.Now()) } } } time.NewTicker(d time.Duration):返回一个新的定时器,它会在指定的时间间隔后不断地向 ticker.C chann.... 定时任务 定时任务
git rebase 是 Git 中一个非常强大的命令,用于在版本历史中重新应用提交。它的主要作用是将一系列的提交“移动”到另一个基点上,使得提交历史更加线性并清晰,避免了复杂的分支合并历史。 git rebase 通常用于将一个分支的修改应用到另一个分支的基础上,从而整理提交记录,使其更加简洁和易读。 基本的 Rebase 用法 假设你在一个分支 feature 上进行开发,现在你想将 feature 分支上的修改重新基于 master 分支(或者主分支),步骤如下: 切换到 feature 分支: git checkout feature 执行 rebase 操作: git rebase master 这将会把 feature 分支上的提交应用到 master 分支的最新提交之后。Git 会将 feature 分支的每个提交从当前的基础提交“摘下”,然后一个接一个地应用到 master 分支的最新提交上。 Rebase 操作过程 git rebase 会将分支上的提交按时间顺序重写并“应用”到目标分支上。具体来说,它会做以下几步: 查找两个分支的共同祖先,然后找到目标分支(如 .... 认识 git rebase git
是的,Base64 编码后数据的体积会增大,通常会增加大约 33% 的体积。这是因为 Base64 编码采用的是将每 3 字节的数据转换为 4 字节的字符,从而导致输出数据比输入数据多。 为什么 Base64 编码后体积会增大 Base64 编码的过程是将每 3 个字节(24 位)分解成 4 个 6 位的块,然后映射到 Base64 字符集中的字符。由于每个字符表示 6 位数据,而一个字节(8 位)对应一个字符,3 个字节(24 位)映射为 4 个字符(4 × 6 = 24 位),因此会产生额外的空间。 计算公式 每 3 字节原数据 -> 转换为 4 字节的编码数据。 计算比例: 43(编码数据字节数)×100%≈133.33%\frac{4}{3} \text{(编码数据字节数)} \times 100\% \approx 133.33\% 也就是说,Base64 编码后数据的大小是原数据的 133.33%,即大约增加了 33% 的大小。 Base64 编码的具体过程 输入数据:每 3 个字节(即 24 位)分为 4 组 6 位。 映射:每组 6 位映射为一个 Base64 字.... base64编码后体积增大三分之一 base64
HTTP 中常使用 Base64 编码 主要是因为 Base64 解决了 HTTP 协议中对二进制数据的处理问题。HTTP 协议本身是基于文本的,虽然它可以通过二进制方式传输数据,但有些场景下二进制数据的传输可能会引发问题。Base64 编码就是一种将二进制数据转换为只包含文本字符的方式,使其能够在 HTTP 协议中传输。以下是几个常见的原因,解释了为什么 HTTP 常用 Base64: 1. 文本协议与二进制数据的兼容性 HTTP 是一个基于文本的协议,传输的是文本数据(例如 HTML 文件、JSON、XML 等)。而大多数二进制数据(如图像、视频、音频等)不能直接作为 HTTP 消息体传输,因为: 二进制数据可能包含不可打印字符,这可能导致 HTTP 传输过程中的数据损坏,或者 HTTP 头部的格式问题。 HTTP 协议规定了消息体的字符集,某些二进制数据可能会冲突。 Base64 编码通过将二进制数据转换为文本(仅使用 ASCII 字符集),解决了这一问题。通过 Base64 编码,二进制数据能够变得与文本数据兼容,从而能够顺利地在 HTTP 请求和响应中传输。 2. 避免字符编.... base在web服务开发中的应用 base64
Base64 编码简介 Base64 是一种用于数据编码的方式,常用于将二进制数据转换为文本格式,尤其在需要通过文本协议传输二进制数据时(如在电子邮件中传输图片或在 URL 中传输文件)非常有用。 Base64 编码将任意的二进制数据(如文件、图片等)转换成只包含 ASCII 字符(通常是 A-Z、a-z、0-9、"+"、"/" 和 "=")的文本格式,使其能够通过文本方式安全地进行传输。 Base64 编码的工作原理 Base64 编码的过程可以分为以下几个步骤: 分组输入数据:首先,将输入数据按每 3 字节(24 位)一组进行分组。如果数据的长度不是 3 字节的整数倍,则使用零填充,使其满足 3 字节的整数倍。 转换为 6 位单位:每组 3 字节的数据总共有 24 位,将其分为 4 组,每组 6 位。 映射为 Base64 字符:根据 Base64 编码表,将每组 6 位的二进制数映射为一个 Base64 字符。Base64 编码表如下: 0-25 -> A-Z 26-51 -> a-z 52-61 -> 0-9 62 -> + 63 -> / 处理.... 认识base64 base64
在 Go 中,chan(Channel)不仅仅是一个用于通信的工具,它还与 协程调度(goroutine scheduling) 紧密相关,直接影响 Go 程序的并发性能和资源利用。理解 chan 与协程调度的关系,对于优化并发性能和设计高效的并发程序至关重要。 Go 协程调度概述 Go 的协程调度基于 GMP 模型(Goroutine, Machine, Processor),并采用了用户级线程模型。Go 的运行时系统负责调度大量的 goroutines 到操作系统线程上运行。Go 协程调度的基本单位包括: Goroutine:Go 程序中的轻量级线程,是执行单元。 Machine(M):代表操作系统线程。每个 Machine 代表一个操作系统的线程。 Processor(P):Go 运行时的逻辑处理器,用来执行 goroutines。每个 P 可以分配给一个 M。 在 Go 中,goroutines 的调度通过将其与 P 和 M 绑定来实现。每个 goroutine 被调度到一个 P 上,P 负责执行其上的任务。如果 P 没有工作,Go 运行时会将其调度到空闲的 P 上。 Chan.... 从协程调度角度认识chan chan
在 Go 语言中,chan(Channel)是用于 goroutines 之间进行通信的一种数据结构。Channel 允许我们安全地在多个 goroutines 之间传递数据。它是 Go 并发模型中的核心组件之一。理解 chan 的底层数据结构有助于我们更深入地理解其实现原理,尤其是在性能优化和并发控制方面。 Go 中 Channel 的底层实现 Go 的 chan 是一种特殊的数据类型,它通常由以下几部分组成: 缓冲区(Buffer): 对于缓冲 Channel(Buffered Channel),chan 会维护一个缓冲区来存储数据。该缓冲区的大小是在创建 Channel 时指定的,数据会在缓冲区中排队,直到它被另一个 goroutine 从 Channel 中取出。 发送队列和接收队列: 每个 Channel 内部都有一个发送队列(发送者排队等待)的管理,以及接收队列(接收者排队等待)的管理。根据 Channel 的状态(是否有 goroutine 等待接收数据或发送数据),Go 会在发送队列和接收队列之间协调数据的传递。 同步机制: chan 也依赖于 Go 的内置同步机.... 认识chan的结构 go
在 Go 中,协程池(goroutine pool)是为了避免在高并发的场景下频繁创建和销毁协程,从而消耗大量资源。协程池通过限制并发协程的数量来更好地控制系统资源的使用,通常用于处理高并发任务,尤其是当任务的数量可能会非常大,或者任务的处理非常轻量时。 协程池的基本思想是提前创建一定数量的协程,在池中预分配并管理这些协程,当任务到来时从池中获取一个可用的协程来执行任务,任务完成后将协程归还给池中等待下一个任务。 Go 中实现协程池 Go 并没有内建的协程池,因此我们通常需要自己实现协程池。这里介绍一个简单的协程池实现: 实现思路 维护一个协程池,池中有固定数量的协程。 提供一个任务队列,任务可以被提交到队列中。 每个协程从队列中取任务并执行,任务完成后归还协程。 使用 sync.WaitGroup 来等待所有任务完成。 协程池实现示例 package main import ( "fmt" "sync" "time" ) type GoroutinePool struct { // 任务队列 taskQueue chan func() // 等待所有任务完成 wg sync.Wait.... go实现协程池 go
红黑树(Red-Black Tree)简介 红黑树是一种自平衡的二叉查找树(Binary Search Tree, BST),它在插入和删除节点时,通过对树的结构进行调整,保证了树的高度始终保持在对数级别,从而保证了基本操作(如查找、插入、删除)的时间复杂度为 O(log N)。 红黑树的自平衡特性保证了树的高度不会太高,这使得它特别适用于需要频繁执行插入、删除和查找操作的应用场景,如数据库和文件系统。 红黑树的性质 红黑树在保持二叉查找树的基本特性(即对于每个节点,左子树的值小于节点值,右子树的值大于节点值)之外,还必须满足以下五个性质: 每个节点要么是红色,要么是黑色。 根节点是黑色的。 每个叶子节点(NIL 节点)是黑色的。 叶子节点是指那些不存在子节点的节点,通常在红黑树中指代为 NIL 节点,这些节点不会保存任何数据。 如果一个节点是红色的,则它的子节点必须是黑色的。 这也叫做“红色节点不能相邻”,即红色节点不能有红色子节点。 从任意节点到其所有后代叶子节点的路径上,必须包含相同数目的黑色节点。 也就是说,黑色节点的数目在从根到叶子节点的路径上必须一致,这确保了树的高度保持平.... 认识红黑树 红黑树
epoll 的高效性主要来自于其内部使用的 数据结构 以及 事件通知机制。在处理大量并发连接时,它避免了 select 和 poll 中的一些性能瓶颈,具有显著的优势。具体来说,epoll 快的原因可以归结为以下几点: 1. 基于事件通知的机制(与轮询的区别) epoll 避免了 select 和 poll 每次调用时都需要遍历所有的文件描述符(fd)的过程。在 select 和 poll 中,每次都需要检查每个文件描述符是否有事件发生,随着文件描述符数量的增加,性能会显著下降。而 epoll 使用事件驱动的方式,只在有事件发生时才通知应用程序。这意味着 epoll 不会为每个文件描述符检查每个事件,而是直接给出发生了哪些事件,显著减少了不必要的工作量。 2. 数据结构:红黑树与链表 epoll 内部主要使用了 红黑树(Red-Black Tree) 和 双向链表(Double Linked List) 两种数据结构来管理和处理文件描述符的事件。 (1) 红黑树(Red-Black Tree) 红黑树 是一种自平衡二叉查找树。epoll 使用红黑树来管理所有被监控的文件描述符。这些文件.... epoll为什么高效 epoll
epoll 介绍 epoll 是 Linux 内核提供的一种 高效的 I/O 多路复用机制,用于处理大量的并发连接。它是 select() 和 poll() 系列 I/O 多路复用函数的现代替代方案,旨在解决传统方法在高并发环境下的性能瓶颈问题。通过 epoll,一个进程可以同时监控多个文件描述符,以高效地处理大量的 I/O 事件(如网络连接、文件 I/O 等)。 为什么使用 epoll? 性能问题:在大量并发连接时,select 和 poll 会遭遇性能瓶颈。例如,select 和 poll 需要每次调用时遍历所有的文件描述符,随着文件描述符数量的增加,性能会显著下降。而 epoll 通过事件驱动的方式,避免了这种性能瓶颈。 资源消耗:epoll 使用了 内核级的事件通知机制,使得只有在有事件发生时才进行处理,减少了资源消耗,避免了不断轮询的浪费。 epoll 的优势 高效性:epoll 在处理大量并发连接时比 select 和 poll 更加高效,尤其在连接数目非常庞大的情况下,epoll 的性能优势尤为明显。 避免重复遍历:select 和 poll 需要每次遍历所有文件描述符,.... 认识epoll epoll