失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > always on sql 收缩日志_sql server日志文件过大无法收缩的问题

always on sql 收缩日志_sql server日志文件过大无法收缩的问题

时间:2022-09-10 21:27:13

相关推荐

always on sql 收缩日志_sql server日志文件过大无法收缩的问题

sql server日志达到了700G,就

用以下方法都不能成功收缩

第一种:执行命令

backup log aa with no_log

用管理工具右击数据库-任务-收缩-文件-日志

填写上收缩到多少,有提示的值按照自己的需求收缩。我这里收缩到1M。

点击确定执行完毕后检查日志文件大小没有变化。日志文件没有收缩成功。

查看日志报错是:

Autogrow of file 'ZSZQ_FTDB_Log' in database 'ZSZQ_FTDB' was cancelled by user or timed out after 30531 milliseconds. Use ALTER DATABASE to set a smaller FILEGROWTH value for this file or to explicitly set a new file size.

第二种:DUMP TRANSACTION 库名 WITH NO_LOG

看网上说把backup log aa with no_log命令改成执行DUMP TRANSACTION 库名 WITH NO_LOG这个命令然后收缩试了一下还是不行。

第三种方法:

执行以下命令:

-----

SET NOCOUNT ON

DECLARE @LogicalFileName sysname,

@MaxMinutes INT,

@NewSize INT

USE Marias -- 要操作的数据库名

SELECT @LogicalFileName = 'Marias_log', -- 日志文件名

@MaxMinutes = 10, -- Limit on time allowed to wrap log.

@NewSize = 100 -- 你想设定的日志文件的大小(M)

-- Setup / initialize

DECLARE @OriginalSize int

SELECT @OriginalSize = size

FROM sysfiles

WHERE name = @LogicalFileName

SELECT 'Original Size of ' + db_name() + ' LOG is ' +

CONVERT(VARCHAR(30),@OriginalSize) + ' 8K pages or ' +

CONVERT(VARCHAR(30),(@OriginalSize*8/1024)) + 'MB'

FROM sysfiles

WHERE name = @LogicalFileName

CREATE TABLE DummyTrans

(DummyColumn char (8000) not null)

DECLARE @Counter INT,

@StartTime DATETIME,

@TruncLog VARCHAR(255)

SELECT @StartTime = GETDATE(),

@TruncLog = 'BACKUP LOG ' + db_name() + ' WITH TRUNCATE_ONLY'

DBCC SHRINKFILE (@LogicalFileName, @NewSize)

EXEC (@TruncLog)

-- Wrap the log if necessary.

WHILE @MaxMinutes > DATEDIFF (mi, @StartTime, GETDATE()) -- time has not expired

AND @OriginalSize = (SELECT size FROM sysfiles WHERE name = @LogicalFileName)

AND (@OriginalSize * 8 /1024) > @NewSize

BEGIN -- Outer loop.

SELECT @Counter = 0

WHILE ((@Counter < @OriginalSize / 16) AND (@Counter < 50000))

BEGIN -- update

INSERT DummyTrans VALUES ('Fill Log')

DELETE DummyTrans

SELECT @Counter = @Counter + 1

END

EXEC (@TruncLog)

END

SELECT 'Final Size of ' + db_name() + ' LOG is ' +

CONVERT(VARCHAR(30),size) + ' 8K pages or ' +

CONVERT(VARCHAR(30),(size*8/1024)) + 'MB'

FROM sysfiles

WHERE name = @LogicalFileName

DROP TABLE DummyTrans

SET NOCOUNT OFF

还是没有成功收缩,继续探索。

最后只能使用分离附加的方法

先把数据库分离,然后把日志文件更名,然后附加数据库,由于日志文件更名了所以附加数据的时候找不到原来的日志文件了,他会自动生成一个新的日志文件,这样就可以把更名的日志文件删除了。

但过程往往没有这么顺利,在分离数据库的之后遇到了问题,一开始执行分离数据命令的时候报错:

use master

go

--分离数据库

exec sp_detach_db 数据库名

go

无法对 数据库'ZSZQ_FTDB' 执行 删除,因为它正用于复制。

只需要执行 sp_removedbreplication 'XXX' 就可以了。

这个语句的解释是:从数据库中删除所有复制对象,但不更新分发服务器上的数据。此存储过程在发布服务器的发布数据库或订阅服务器的订阅数据库上执行。

然后继续分离:

use master

go

--分离数据库

exec sp_detach_db 数据库名

go

奶奶的又报错:

数据库正在被使用无法进行分离操作。

然后就想办法断开所有连接:

--断开指定库的所有用户连接(在master数据库中进行)

use master

go

if exists (select * from dbo.sysobjects where id = object_id(N'[dbo].[sp_KillSpid]') and OBJECTPROPERTY(id, N'IsProcedure') = 1)

drop procedure [dbo].[sp_KillSpid]

GO

create proc sp_KillSpid

@dbname sysname --要断开连接的数据库名

as

declare @s nvarchar(1000)

declare tb cursor local

for

select N'kill '+cast(spid as varchar)

from master..sysprocesses

where dbid=db_id(@dbname)

open tb

fetch next from tb into @s

while @@fetch_status=0

begin

exec(@s)

fetch next from tb into @s

end

close tb

deallocate tb

go

--调用

exec sp_KillSpid '数据库名'

然后在执行分离:

usemaster

go

--分离数据库

execsp_detach_dbmydb

go

分离成功!

终于好了,然后开始更改日志文件名,是他在附加的时候找不到原来的日志文件而重新生成一个新的日志文件。更改完成后附加数据库。

--附加数据库

execsp_attach_db 数据库名,'D:\xxx.mdf'--后面是路径

go

文件激活失败。物理文件名称'D:\newpoodudb\ZSZQ_FTDB_Log.LDF'可能不正确。

新的日志文件'D:\newpoodudb\ZSZQ_FTDB_log.LDF'已创建。

提示找不到原来的日志文件,已创建新的日志文件,哈哈,到这里删除更改名称后的日志文件就完成了。

如果觉得《always on sql 收缩日志_sql server日志文件过大无法收缩的问题》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。