Otimizando a junção em uma mesa grande

10

Estou tentando convencer um pouco mais de desempenho de uma consulta que está acessando uma tabela com ~ 250 milhões de registros. Na minha leitura do plano de execução real (não estimado), o primeiro gargalo é uma consulta que se parece com isso:

select
    b.stuff,
    a.added,
    a.value
from
    dbo.hugetable a
    inner join
    #smalltable b on a.fk = b.pk
where
    a.added between @start and @end;

Veja mais abaixo as definições das tabelas e índices envolvidos.

O plano de execução indica que um loop aninhado está sendo usado em #smalltable e que a verificação do índice sobre hugetable está sendo executada 480 vezes (para cada linha em #smalltable). Isso me parece inverso, então tentei forçar uma junção de mesclagem a ser usada:

select
    b.stuff,
    a.added,
    a.value
from
    dbo.hugetable a with(index = ix_hugetable)
    inner merge join
    #smalltable b with(index(1)) on a.fk = b.pk
where
    a.added between @start and @end;

O índice em questão (veja abaixo para definição completa) abrange as colunas fk (o predicado de junção), adicionado (usado na cláusula where) & id (inútil) em ordem crescente e inclui valor .

Quando faço isso, no entanto, a consulta sai de 2 1/2 minutos para mais de 9. Eu esperaria que as dicas forçassem uma junção mais eficiente, que apenas passasse uma única vez sobre cada tabela, mas claramente não.

Qualquer orientação é bem vinda. Informações adicionais fornecidas, se necessário.

Atualização (02/06/2011)

Tendo reorganizado a indexação na tabela, fiz incursões significativas no desempenho, no entanto, encontrei um novo obstáculo ao resumir os dados na enorme tabela. O resultado é uma resumo por mês, que atualmente se parece com o seguinte:

select
    b.stuff,
    datediff(month, 0, a.added),
    count(a.value),
    sum(case when a.value > 0 else 1 end) -- this triples the running time!
from
    dbo.hugetable a
    inner join
    #smalltable b on a.fk = b.pk
group by
    b.stuff,
    datediff(month, 0, a.added);

No momento, o hugetable possui um índice agrupado pk_hugetable (added, fk)(a chave primária) e um índice não agrupado na outra direção ix_hugetable (fk, added).

Sem a quarta coluna acima, o otimizador usa uma junção de loop aninhada como antes, usando #smalltable como entrada externa, e um índice não agrupado busca como loop interno (executando 480 vezes novamente). O que me preocupa é a disparidade entre as linhas estimadas (12.958,4) e as linhas reais (74.668.468). O custo relativo dessas buscas é de 45%. No entanto, o tempo de execução é inferior a um minuto.

Com a quarta coluna, o tempo de execução aumenta para 4 minutos. Desta vez, ele procura no índice clusterizado (2 execuções) pelo mesmo custo relativo (45%), agregado por meio de uma correspondência de hash (30%) e, em seguida, faz uma junção de hash em #smalltable (0%).

Não tenho certeza quanto ao meu próximo curso de ação. Minha preocupação é que nem a pesquisa por período nem o predicado de junção sejam garantidos ou mesmo o que provavelmente reduza drasticamente o conjunto de resultados. Na maioria dos casos, o período varia apenas entre 10 e 15% dos registros, e a junção interna no fk pode filtrar entre 20 e 30%.


Conforme solicitado por Will A, os resultados de sp_spaceused:

name      | rows      | reserved    | data        | index_size  | unused
hugetable | 261774373 | 93552920 KB | 18373816 KB | 75167432 KB | 11672 KB

#smalltable é definido como:

create table #endpoints (
    pk uniqueidentifier primary key clustered,
    stuff varchar(6) null
);

Enquanto dbo.hugetable é definido como:

create table dbo.hugetable (
    id uniqueidentifier not null,
    fk uniqueidentifier not null,
    added datetime not null,
    value decimal(13, 3) not null,

    constraint pk_hugetable primary key clustered (
        fk asc,
        added asc,
        id asc
    )
    with (
        pad_index = off, statistics_norecompute = off,
        ignore_dup_key = off, allow_row_locks = on,
        allow_page_locks = on
    )
    on [primary]
)
on [primary];

Com o seguinte índice definido:

create nonclustered index ix_hugetable on dbo.hugetable (
    fk asc, added asc, id asc
) include(value) with (
    pad_index = off, statistics_norecompute = off,
    sort_in_tempdb = off, ignore_dup_key = off,
    drop_existing = off, online = off,
    allow_row_locks = on, allow_page_locks = on
)
on [primary];

O campo id é redundante, um artefato de um DBA anterior que insistia em que todas as tabelas em todos os lugares deveriam ter um GUID, sem exceções.

Quick Joe Smith
fonte
Você poderia incluir o resultado de sp_spaceused 'dbo.hugetable', por favor?
Will A
Concluído, adicionado logo acima do início das definições da tabela.
Quick Joe Smith
Com certeza é. Seu tamanho ridículo é a razão pela qual estou investigando isso.
Quick Joe Smith

Respostas:

5

Você ix_hugetableparece bastante inútil porque:

  • ele é o índice agrupado (PK)
  • o INCLUDE não faz diferença porque um índice em cluster INCLUI todas as colunas não-chave (valores não-chave na folha mais baixa = INCLUDEd = o que é um índice em cluster)

Além disso: - adicionado ou fk deve ser o primeiro - o ID é o primeiro = pouco uso

Tente alterar a chave em cluster para (added, fk, id)e solte ix_hugetable. Você já tentou (fk, added, id). Se nada mais, você economizará muito espaço em disco e manutenção de índice

Outra opção pode ser tentar a dica FORCE ORDER com instruções de ordem de tabela e sem dicas JOIN / INDEX. Tento não usar as dicas JOIN / INDEX pessoalmente, porque você remove as opções do otimizador. Há muitos anos, fui informado (seminário com um SQL Guru) que a dica do FORCE ORDER pode ajudar quando você tem uma mesa enorme. JOIN table pequena: YMMV 7 anos depois ...

Ah, e deixe-nos saber onde o DBA mora para que possamos providenciar alguns ajustes de percussão

Editar após atualização de 02 de junho

A quarta coluna não faz parte do índice não agrupado em cluster, portanto, usa o índice agrupado.

Tente alterar o índice NC para INCLUDE a coluna value, para que ele não precise acessar a coluna value para o índice em cluster

create nonclustered index ix_hugetable on dbo.hugetable (
    fk asc, added asc
) include(value)

Nota: Se o valor não for anulável, será o mesmo que COUNT(*)semanticamente. Mas, para SUM, ele precisa do valor real , não da existência .

Por exemplo, se você alterar COUNT(value)para COUNT(DISTINCT value) sem alterar o índice, ele deve interromper a consulta novamente, pois precisa processar o valor como um valor, não como uma existência.

A consulta precisa de 3 colunas: adicionado, fk, valor. Os dois primeiros são filtrados / unidos, assim como as colunas principais. O valor é usado apenas para que possa ser incluído. Uso clássico de um índice de cobertura.

gbn
fonte
Ah, eu tinha na cabeça que os índices agrupados e não agrupados tinham fk e adicionados em ordem diferente. Eu não posso acreditar que não notei isso, quase tanto quanto eu não posso acreditar que foi configurado dessa maneira em primeiro lugar. Amanhã vou mudar o índice clusterizado, depois desço a rua para tomar um café enquanto ele é reconstruído.
Quick Joe Smith
Alterei a indexação e tive uma festança com o FORCE ORDER na tentativa de reduzir o número de pesquisas na tabela grande, mas sem sucesso. Minha pergunta foi atualizada.
Quick Joe Smith
@ Quick Joe Smith: atualizei minha resposta
gbn
Sim, tentei isso não muito tempo depois. Como a reconstrução do índice leva tanto tempo, eu esqueci e, inicialmente, pensei que tinha acelerado fazendo algo totalmente não relacionado.
Quick Joe Smith
2

Defina um índice hugetableapenas na addedcoluna.

Os bancos de dados usarão um índice de várias partes (várias colunas) apenas à direita da lista de colunas, pois possui valores contados a partir da esquerda. Sua consulta não especifica fkna cláusula where da primeira consulta, portanto ignora o índice.

boêmio
fonte
O plano de execução mostra que o índice (ix_hugetable) está sendo procurado. Ou você está dizendo que esse índice não é apropriado para a consulta?
Quick Joe Smith
O índice não é apropriado. Quem sabe como é "usar o índice". A experiência me diz que esse é seu problema. Experimente e conte-nos como vai.
Bohemian
@ Joe Rápido Smith - você tentou a sugestão de @ Bohemian? Onde estão os resultados?
Lieven Keersmaekers
2
Não concordo: a cláusula ON é processada logicamente primeiro e é efetivamente um WHERE na prática, portanto, o OP deve tentar as duas colunas primeiro. Nenhuma indexação em fk = verificação de índice em cluster ou pesquisa de chave para obter o valor de fk para JOIN. Você pode adicionar algumas referências ao comportamento que você descreveu também, por favor? Especialmente para o SQL Server, pois você tem pouco histórico anterior de resposta para este RDBMS. Na verdade, -1 em retrospecto quando digito este comentário
gbn
2

O plano de execução indica que um loop aninhado está sendo usado em #smalltable e que a verificação do índice sobre hugetable está sendo executada 480 vezes (para cada linha em #smalltable).

Essa é a ordem que eu esperaria que o otimizador de consultas usasse, assumindo que um loop se juntasse à escolha certa. A alternativa é fazer um loop de 250 milhões de vezes e executar uma pesquisa na tabela #temp a cada vez - o que pode levar horas / dias.

O índice que você está forçando a ser usado na junção MERGE é de quase 250 milhões de linhas * 'o tamanho de cada linha' - não é pequeno, tem pelo menos alguns GB. A julgar pela sp_spaceusedsaída 'alguns GB' pode ser um eufemismo - a junção MERGE exige que você vasculhe o índice, o que exigirá muito I / O.

Will A
fonte
Meu entendimento é que existem 3 tipos de algoritmos de junção e que a junção de mesclagem tem o melhor desempenho quando ambas as entradas são ordenadas pelo predicado de junção. Certo ou errado, este é o resultado que estou tentando obter.
Quick Joe Smith
2
Mas há mais do que isso. Se #smalltable tiver um grande número de linhas, uma junção de mesclagem poderá ser apropriada. Se, como o nome sugere, ele possui um pequeno número de linhas, uma junção de loop pode ser a escolha certa. Imagine #smalltable tinha uma ou duas linhas e correspondia a um punhado de linhas da outra tabela - seria difícil justificar uma junção de mesclagem aqui.
Will A
Imaginei que havia mais do que isso; Eu simplesmente não sabia o que poderia ser. A otimização do banco de dados não é exatamente o meu ponto forte, como você provavelmente já adivinhou.
Quick Joe Smith
@ Joe Joe Smith rápido - obrigado pelo sp_spaceused. 75 GB de índice e 18 GB de dados - ix_hugetable não é o único índice da tabela?
Will A
11
+1 Will. O planejador está atualmente fazendo a coisa certa. O problema está nas buscas aleatórias em disco devido à maneira como suas tabelas são agrupadas.
Denis de Bernardy
1

Seu índice está incorreto. Veja os índices dos e donts .

No momento, seu único índice útil é o da chave primária da pequena tabela. O único plano razoável é, portanto, seq varrer a pequena mesa e aninhar a bagunça com a enorme.

Tente adicionar um índice clusterizado hugetable(added, fk). Isso deve fazer com que o planejador procure linhas aplicáveis ​​da tabela enorme e aninhe loop ou mesclagem e junte-as à tabela pequena.

Denis de Bernardy
fonte
Obrigado por esse link. Vou tentar isso quando chegar ao trabalho amanhã.
Quick Joe Smith