Nano Hash - криптовалюты, майнинг, программирование

Использование SQLBulkCopy — значительно большие таблицы в SQL Server 2016, чем в SQL Server 2014.

У меня есть приложение, которое использует SqlBulkCopy для перемещения данных в набор таблиц. Недавно выяснилось, что пользователи, использующие SQL2016, сообщают о проблемах с заполнением их жестких дисков очень большими базами данных (которые не должны быть такими большими). Эта проблема не возникает в SQL2014. После проверки выяснилось, что запуск TableDataSizes.sql (скрипт прилагается) показал большое количество места в UnusedSpaceKB.

Я хотел бы знать, есть ли а) какая-то ошибка в SQLServer 2016 или наше использование SQLBulkCopy «столкнулось» с новой функцией. Я отмечаю, что в SQLServer 2016 произошли некоторые изменения в распределении страниц. В целом — с чем это связано?

Действия по воспроизведению Примечание. Ниже описана ситуация, с которой я столкнулся, когда была удалена второстепенная информация. На самом деле я не храню тысячи временных меток в таблице базы данных (другие столбцы были удалены).

  1. Создадим базу данных на SQL (моя называлась TestDB)
  2. Создайте таблицу в этой БД (используя скрипт, как показано ниже)

    USE [TestDB]
    GO
    
    /****** Object:  Table [dbo].[2017_11_03_DM_AggregatedPressure_Data]    Script Date: 07/11/2017 10:30:36 ******/
    SET ANSI_NULLS ON
    GO
    
    SET QUOTED_IDENTIFIER ON
    GO
    
    CREATE TABLE [dbo].[TestTable](
        [TimeStamp] [datetime] NOT NULL
    ) ON [PRIMARY]
    
    GO
    
  3. Создайте индекс в этой таблице (используя скрипт, как показано ниже)

    USE [TestDB]
    GO
    
    /****** Object:  Index [2017_11_03_DM_AggregatedPressure_Data_Index]    Script Date: 07/11/2017 10:32:44 ******/
    CREATE CLUSTERED INDEX [TestTable_Index] ON [dbo].[TestTable]
    (
       [TimeStamp] ASC
    )WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, SORT_IN_TEMPDB = OFF, DROP_EXISTING = OFF, ONLINE = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON)
    GO
    
  4. Начните вводить записи в таблицу, используя приведенный ниже код. (Это код для формы Windows, в которой просто есть кнопка с именем btnGo и числовой элемент UpDown с именем nupRecordsToInsert.

    Public Class Form1
    
    Private conStr As String = "Integrated Security=true;Persist Security Info=true;Server=.;Database=TestDB;Pooling=True"
    Dim tableName As String = "TestTable"
    
    Private Sub btnGo_Click(sender As Object, e As EventArgs) Handles btnGo.Click
    
        Dim table as DataTable = GetData(nupRecordsToInsert.Value)
    
        Using conn As SqlConnection = New SqlConnection(conStr)
            conn.Open()
            Using sbc As SqlBulkCopy = New SqlBulkCopy(conStr, SqlBulkCopyOptions.UseInternalTransaction Or SqlBulkCopyOptions.KeepIdentity)
    
                sbc.DestinationTableName = "[" & tableName & "]"
                sbc.BatchSize = 1000
                sbc.WriteToServer(table)
    
            End Using
        End Using
    
        MessageBox.Show($"Records Inserted = {nupRecordsToInsert.Value} into Database - TestDB. Table - {tableName}")
    End Sub
    
    Private Function GetData(numOfRecordsNeeded As Integer) As DataTable
        Dim table As DataTable = New DataTable()
        table.Columns.Add("TimeStamp", GetType(DateTime))   
    
        Dim dtDateTimeToInsert as DateTime = DateTime.Now
    
        For index As Integer = 1 To numOfRecordsNeeded
            dtDateTimeToInsert = dtDateTimeToInsert.AddSeconds(2)
            table.Rows.Add(dtDateTimeToInsert) 
        Next
    
        Return table
    End Function
    

    Конец класса

  5. В какой-то момент около 500 записей количество элементов в таблице базы данных будет означать, что новые записи необходимо будет записать на новую страницу. На данный момент интересно, как это происходит, как указано в фактических результатах.

Фактические результаты Базы данных в SQL2016 чрезвычайно велики (это происходит после заполнения первой страницы и запуска второй).

Это можно увидеть более подробно, когда

  1. Запустите приведенный ниже SQL, чтобы получить представление о размерах таблиц. Чем больше записей вы запускаете в базу данных, тем чаще вы видите чрезвычайно большие числа в столбце UnusedSpaceKB.

    use [TestDB]
    
    SELECT 
       t.NAME AS TableName,
       s.Name AS SchemaName,
       p.rows AS RowCounts,
       SUM(a.total_pages) * 8 AS TotalSpaceKB, 
       SUM(a.used_pages) * 8 AS UsedSpaceKB, 
       (SUM(a.total_pages) - SUM(a.used_pages)) * 8 AS UnusedSpaceKB
    FROM 
       sys.tables t
    INNER JOIN      
       sys.indexes i ON t.OBJECT_ID = i.object_id
    INNER JOIN 
       sys.partitions p ON i.object_id = p.OBJECT_ID AND i.index_id = p.index_id
    INNER JOIN 
       sys.allocation_units a ON p.partition_id = a.container_id
    LEFT OUTER JOIN 
       sys.schemas s ON t.schema_id = s.schema_id
    WHERE 
      t.NAME = 'TestTable'
      AND t.is_ms_shipped = 0
      AND i.OBJECT_ID > 255 
    GROUP BY 
      t.Name, s.Name, p.Rows
    ORDER BY 
      RowCounts desc
    

Вывод, показывающий большое число в UnusedSpaceKB

введите здесь описание изображения

  1. Выполнение приведенного ниже запроса показывает, что было выделено много страниц, но используется только первая из каждого «набора 8». Это оставляет последние 7 из каждых 8 страниц неиспользованными и, таким образом, создает много неиспользуемого пространства.

     select * from sys.dm_db_database_page_allocations
     (DB_id() , object_id('[dbo].[TestTable]') , NULL , NULL , 'DETAILED')
    

Ниже показана часть результатов, где выделение страниц не выполняется непрерывно.
Отображение пробелов в результатах database_page_allocations

Базы данных в SQL2014 не показывают эту проблему 1. При выполнении соответствующего запроса (как указано выше) мы не видим больших значений в столбце UnusedSpaceKB.

  1. Выполнение другого запроса (который запрашивает — dm_db_database_page_allocations) показывает, что было выделено много страниц, но каждая страница используется последовательно. Нет пробелов - нет блоков по 7 неиспользованных страниц.

Распределение смежных страниц

Ожидаемые результаты Я ожидаю, что SQL2016 будет вести себя как SQL2014 и не будет создавать очень большие таблицы. В частности, я ожидаю, что страницы будут распределены непрерывно и не будут иметь 7 пробелов в распределении страниц.

Если у кого-то есть мысли о том, почему я вижу эту разницу, это было бы чрезвычайно полезно.


  • Вы проверили, что сервер FillFactor одинаков на обоих серверах? Ваш CREATE INDEX НЕ указывает это явно, поэтому используется сервер по умолчанию. P.S. Почему бы вам не создать свой индекс ПОСЛЕ вашего BulkCopy? Если вы делаете это сейчас, у вас никогда не будет минимального ведения журнала. 08.11.2017
  • Вы используете массовое копирование практически наименее эффективным способом — у вас есть кластеризованный индекс для таблицы, размер пакета 1000 и вы используете блокировки строк, а не таблицы. Вы по-прежнему будете получать потоковые данные, но сама операция будет полностью зарегистрирована. Однако это само по себе не должно меняться по сравнению с SQL Server 2014. Одинаковы ли модели восстановления в обоих случаях? Были ли применены какие-либо пользовательские флаги трассировки? (Например, флаг трассировки 610, который включает минимальное ведение журнала для массовых вставок в таблицы с кластеризованными индексами)? 08.11.2017
  • Каковы параметры автороста для баз данных? Сколько данных перемещается? Что вообще означает too large? Шаги в этом вопросе слишком расплывчаты, чтобы воспроизвести какую-либо проблему. 08.11.2017
  • Просто для быстрой проверки увеличьте размер партии до 10000 или около того. 08.11.2017
  • На основе комментария Панайотиса. Предоставили несколько изображений выходных данных, чтобы дополнительно объяснить, как проявляется разница в размере между двумя базами данных. Вы должны четко видеть, что в SQL2014 выделение страниц выполняется непрерывно, а в версии SQL2016 выделение страниц оставляет много страниц неиспользованными. Я считаю, что именно это вызывает разницу в размерах таблиц, но я понятия не имею, почему. 08.11.2017
  • Один экстент составляет 8 страниц. Похоже, что каждое выделение страницы выполняется из нового экстента. Вероятно, связано. Как уже было предложено, попробуйте увеличить размер пакета (в статье также упоминается TF 692 в качестве обходного пути, если вы не можете это сделать). (Кроме того, приятно знать, что TF 610 больше не требуется в SQL Server 2016 для получения массовых вставок с минимальным протоколированием в кластерных индексах.) 08.11.2017
  • Обратите внимание, что массовая вставка была и всегда будет оптимизирована для массовой вставки — для достаточно небольших пакетов вы можете рассмотреть возможность переключения на обычные вставки в транзакции, которые не будут намного медленнее. 08.11.2017
  • @JeroenMostert - большое спасибо за вашу помощь. Это очень похоже на то, что мне нужно исследовать. Я застряну в этом и посмотрю, что я могу найти. Еще раз - спасибо за ваши усилия. 08.11.2017

Ответы:


1

Вам необходимо используйте флаг трассировки 692:

Если по какой-либо причине вы не можете изменить размер пакета или если вы не видите улучшенной производительности загрузки данных с минимальным поведением ведения журнала по умолчанию, вы можете отключить поведение быстрой вставки в SQL Server 2016 с помощью флага трассировки 692 (...). Мы не ожидаем, что при нормальных обстоятельствах этот флаг трассировки потребуется для клиентов.

25.01.2018
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..