Artigos

1.2: Comparações de números usando <,> e =


1.2: Comparações de números usando <,> e =

Máximo e mínimo de uma matriz usando o número mínimo de comparações em C

Recebemos uma matriz de inteiros. A tarefa é encontrar o elemento mínimo e máximo da matriz no número mínimo de comparações.

Explicação & minus Aqui, para minimizar o número de comparações, inicializaremos o elemento máximo e mínimo com Arr [0]. E começando do segundo elemento, compare cada valor com mínimo e máximo e atualize de acordo.

Explicação & minus Aqui também, para minimizar o número de comparações, inicializaremos o elemento máximo e mínimo com Arr [0]. E começando do segundo elemento, compare cada valor com mínimo e máximo e atualize de acordo.


1.2: Comparações de números usando e =

Compare duas frações com numeradores e denominadores diferentes, por exemplo, criando denominadores ou numeradores comuns ou comparando com uma fração de referência, como 1/2. Reconheça que as comparações são válidas apenas quando as duas frações se referem ao mesmo todo. Registre os resultados das comparações com os símbolos & gt, = ou & lt e justifique as conclusões, por exemplo, usando um modelo de fração visual. (Padrão #: MAFS.4.NF.1.2)

Tutoriais originais

Use & # 160frações equivalentes & # 160para comparar frações nestes tutoriais interativos com tema de jardim. Esta é a Parte 2 de uma série de duas partes. Clique para abrir a Parte 1 e # 160 "Pizza da Mamãe, Borboletas e Frações de Comparação de Amp."

Área (s) disciplinar (is): Matemática

Tipo de recurso primário: tutorial original

Ajude uma família a resolver uma discussão sobre quem comeu mais pizza e qual borboleta ficou mais comprida, comparando frações usando benchmarks e modelos de área, neste tutorial interativo.

Área (s) disciplinar (is): Matemática

Tipo de recurso primário: tutorial original

Outros recursos

Este é um jogo divertido e interativo que ajuda os alunos a praticar a ordenação de números racionais, incluindo decimais, frações e porcentagens. Você está plantando e colhendo flores por dinheiro. Deixe a abelha polinizar e você pode multiplicar suas safras e recompensas em dinheiro!


1.2: Comparações de números usando e =

Leia e escreva números inteiros de vários dígitos usando numerais de base dez, nomes de números e forma expandida. Compare dois números de vários dígitos com base nos significados dos dígitos em cada lugar, usando os símbolos & gt, = e & lt para registrar os resultados das comparações. (Padrão #: MAFS.4.NBT.1.2)

Tutoriais originais

Aprenda como comparar números usando os símbolos maior e menor neste tutorial interativo que compara algumas coisas muito legais!

Área (s) disciplinar (is): Matemática

Tipo de recurso primário: tutorial original

Leia e escreva números inteiros de vários dígitos usando numerais de base dez e nomes de números usando o sistema de valor de casas de base 10 neste tutorial interativo. Nota: este tutorial excede os limites de número do benchmark.

Área (s) disciplinar (is): Matemática, Matemática (B.E.S.T. -.

Tipo de recurso primário: tutorial original

Aprenda a escrever números usando o valor posicional em diferentes formas, como padrão, palavra e notação expandida neste tutorial interativo.

Área (s) disciplinar (is): Matemática, Matemática (B.E.S.T. -.

Tipo de recurso primário: tutorial original

Outros recursos

Este é um jogo divertido e interativo que ajuda os alunos a praticar a ordenação de números racionais, incluindo decimais, frações e porcentagens. Você está plantando e colhendo flores por dinheiro. Deixe a abelha polinizar e você pode multiplicar suas safras e recompensas em dinheiro!


Atividades de comparação de frações

Uma maneira simples de iniciar uma lição sobre frações de referência é mostrar aos alunos uma imagem como a que está abaixo e fazer perguntas como & # 8220Qual rosquinha é comida aproximadamente pela metade? Qual rosquinha está quase inteira e qual está quase acabando? & # 8221 Este exemplo ajuda os alunos a ver que realmente usamos benchmarks na vida real!

Comece com recursos visuais e manipulativos de fração

Para começar, eu recomendo modelar problemas usando uma linha numérica e manipulativos como círculos de fração e blocos de fração. Esses recursos visuais ajudam a tornar as frações de referência mais concretas à medida que você apresenta essa habilidade.

Gosto de começar comparando as frações a 0 e 1. Isso é um pouco mais fácil para os alunos. Por exemplo, posso mostrar frações como 1/9 e 10/12 e perguntar aos alunos se estão mais perto de 0 ou de 1.

Depois de alguma prática, podemos começar a comparar as frações à metade, novamente usando retas numéricas e manipulativas.

Depois que os alunos analisam isso, podemos passar para a comparação de frações um para o outro comparando ambos com os benchmarks.

Ao comparar 4/10 e 6/7, os alunos podem usar os valores de referência de 1/2 e 1. Como 1 é maior que 1/2, os alunos podem estimar que 6/7 é maior que 4/10.

Frações de referência com matemática mental

A próxima etapa é tentar esta estratégia sem recursos visuais. Você vai querer já ter ensinado frações equivalentes antes de começar.

É bastante fácil para os alunos comparar as frações de 0 e 1 comparando o numerador com o denominador. Comparar frações com 1/2 requer um pouco mais de matemática mental. Peço aos alunos que olhem para o denominador da fração e determinem qual fração (usando esse denominador) seria equivalente a 1/2. Uma maneira simples de fazer isso é simplesmente dividir o denominador por 2.

Por exemplo, vamos & # 8217s usar a fração 4/10. 5/10 é equivalente a 1/2. Portanto, se tivermos uma fração com 10 como denominador, sabemos que 5/10 é exatamente a metade. Quando comparamos 4/10 com 5/10, vemos que está a apenas 1/10 de distância. Está muito mais próximo de 5/10, ou 1/2, do que de 0 ou 1.

Os alunos definitivamente precisam de prática repetida com isso! É mais difícil com denominadores ímpares, por isso recomendo começar com denominadores pares de 12 ou menos.

Em nosso exemplo anterior de 3/11 e 6/7, 3/11 está mais próximo de 0 e 6/7 está mais próximo de 1. 0 & lt1, então sabemos que 3/11 & lt 6/7. Se você optar por usar também 1/4 e 3/4 como benchmarks, isso pode ajudar os alunos a chegar a uma resposta mais específica.

Recursos de Fração de Referência

Uma atividade de classificação é uma ótima maneira de avaliar se os alunos estão apreendendo essa habilidade.

Espero que esta postagem ajude você a ver por que as frações de referência são uma ótima estratégia para comparar e ordenar frações! Se você quiser economizar tempo, pode pegar meu pacote de frações de referência. Não se esqueça de me informar quais outras estratégias você usa para ensinar esta lição!

Esta postagem inclui links de afiliados da Amazon. Eu ganho uma pequena comissão sobre os itens comprados por meio desses links sem nenhum custo extra para você.


Como comparar sentenças numéricas usando sinais de maior que e menor que

Cada sinal é escolhido em uma frase numérica de forma que o símbolo aponte para o lado que tem o menor valor.

Cada símbolo se abre para o lado que tem o maior valor.

Podemos usar uma reta numérica para decidir qual lado de uma frase numérica tem o maior valor.

Ao ensinar a comparação do tamanho do número, uma linha numérica é útil para ajudar a visualizar o tamanho de cada valor.

Aqui estão os múltiplos de 10 de 0 a 100 mostrados em uma reta numérica.

Ao comparar sentenças numéricas no KS1 e KS2 (até a quarta série), espera-se que a maioria das crianças use símbolos de maior ou menor para números até 100.

Neste exemplo, temos um símbolo ausente entre 30 + 10 e 80.

Avaliamos primeiro a soma de adição à esquerda do problema do símbolo ausente.

40 é menor que 80 porque está mais à esquerda na linha numérica.

Podemos usar o símbolo de menor que & # 8216 & # 8217 para escrever esta comparação matematicamente.

60 é menor que 94 e, portanto, a seta apontará para 64. A & # 8216boca & # 8217 abrirá para o valor maior de 94.

Podemos escrever 94> 60 para dizer que 94 é maior que 60.

Como 94> 60, também podemos escrever 90 + 4> 60.

Neste próximo exemplo de comparação de uma sentença de subtração, temos um símbolo ausente entre 15 e 20 & # 8211 2.

Primeiro avaliamos a subtração de 20 & # 8211 2.

20 & # 8211 2 = 18, que está à direita de 15 na reta numérica.

18 é maior que 15 e, portanto, o símbolo abre no 18 e aponta para o 15.


1.2: Comparações de números usando e =

As técnicas de análise de variância (ANOVA) testam se um conjunto de médias de grupo (efeitos de tratamento) são iguais ou não. A rejeição da hipótese nula leva à conclusão de que nem todas as médias do grupo são iguais. Este resultado, no entanto, não fornece informações adicionais sobre quais médias de grupo são diferentes.

Realizando uma série de t-testes para determinar quais pares de médias são significativamente diferentes não são recomendados. Quando você executa vários t-testes, a probabilidade de que as médias pareçam significativas e os resultados de diferenças significativas podem ser devido ao grande número de testes. Esses t-testes usam os dados da mesma amostra, portanto, eles não são independentes. Esse fato torna mais difícil quantificar o nível de significância para vários testes.

Suponha que em um único t-teste, a probabilidade de que a hipótese nula (H0) é rejeitado quando é realmente verdadeiro é um valor pequeno, digamos 0,05. Suponha também que você conduz seis t-testes. Se o nível de significância para cada teste for 0,05, então a probabilidade de que os testes falhem corretamente em rejeitar H0, quando h0 é verdadeiro para cada caso, é (0,95) 6 = 0,735. E a probabilidade de que um dos testes rejeite incorretamente a hipótese nula é 1 & # 8211 0,735 = 0,265, que é muito maior do que 0,05.

Para compensar vários testes, você pode usar vários procedimentos de comparação. A função multcompare de Statistics and Machine Learning Toolbox & # x2122 executa múltiplas comparações entre pares das médias do grupo ou efeitos do tratamento. As opções são o critério de diferença honestamente significativa de Tukey (opção padrão), o método de Bonferroni, o procedimento de Scheffe, o método de diferenças mínimas significativas de Fisher (lsd) e a abordagem de Dunn & amp Sidák para t-teste.

Para realizar comparações múltiplas de médias de grupo, forneça as estatísticas da estrutura como uma entrada para multcompare. Você pode obter estatísticas de uma das seguintes funções:

Para obter várias opções de procedimento de comparação para medidas repetidas, consulte multcompare (RepeatedMeasuresModel).

Comparações múltiplas usando ANOVA unilateral

MPG representa as milhas por galão para cada carro, e Cilindros representa o número de cilindros em cada carro, 4, 6 ou 8 cilindros.

Teste se a média de milhas por galão (mpg) é diferente entre os carros que têm diferentes números de cilindros. Calcule também as estatísticas necessárias para vários testes de comparação.

O pequeno p -valor de cerca de 0 é uma forte indicação de que a média de milhas por galão é significativamente diferente entre os carros com diferentes números de cilindros.

Faça um teste de comparação múltipla, usando o método Bonferroni, para determinar quais números de cilindros fazem a diferença no desempenho dos carros.

Na matriz de resultados, 1, 2 e 3 correspondem a carros com 4, 6 e 8 cilindros, respectivamente. As primeiras duas colunas mostram quais grupos são comparados. Por exemplo, a primeira linha compara os carros com 4 e 6 cilindros. A quarta coluna mostra a diferença média de mpg para os grupos comparados. A terceira e quinta colunas mostram os limites inferior e superior para um intervalo de confiança de 95% para a diferença nas médias do grupo. A última coluna mostra o p -valores para os testes. Tudo p -valores são zero, o que indica que a média de MPG para todos os grupos difere em todos os grupos.

Na figura a barra azul representa o grupo de carros com 4 cilindros. As barras vermelhas representam os outros grupos. Nenhum dos intervalos de comparação do vermelho para o mpg médio dos carros se sobrepõe, o que significa que o mpg médio é significativamente diferente para carros com 4, 6 ou 8 cilindros.

A primeira coluna da matriz de médias contém as estimativas médias de mpg para cada grupo de carros. A segunda coluna contém os erros padrão das estimativas.

Comparações múltiplas para ANOVA de três vias

y é o vetor de resposta e g1, g2 e g3 são as variáveis ​​de agrupamento (fatores). Cada fator tem dois níveis e cada observação em y é identificada por uma combinação de níveis de fator. Por exemplo, a observação y (1) está associada ao nível 1 do fator g1, ao nível 'hi' do fator g2 e ao nível 'pode' do fator g3. Da mesma forma, a observação y (6) está associada ao nível 2 do fator g1, nível 'hi' do fator g2 e nível 'junho' do fator g3.

Teste se a resposta é a mesma para todos os níveis de fator. Calcule também as estatísticas necessárias para vários testes de comparação.

O p -valor de 0,2578 indica que as respostas médias para os níveis 'pode' e 'junho' do fator g3 não são significativamente diferentes. O p -valor de 0,0347 indica que as respostas médias para os níveis 1 e 2 do fator g1 são significativamente diferentes. Da mesma forma, o p -valor de 0,0048 indica que as respostas médias para os níveis 'hi' e 'lo' do fator g2 são significativamente diferentes.

Realize vários testes de comparação para descobrir quais grupos dos fatores g1 e g2 são significativamente diferentes.

multcompare compara as combinações de grupos (níveis) das duas variáveis ​​de agrupamento, g1 e g2. Na matriz de resultados, o número 1 corresponde à combinação do nível 1 de g1 e nível hi de g2, o número 2 corresponde à combinação do nível 2 de g1 e nível hi de g2. Da mesma forma, o número 3 corresponde à combinação do nível 1 de g1 e nível lo de g2, e o número 4 corresponde à combinação do nível 2 de g1 e nível lo de g2. A última coluna da matriz contém o p -valores.

Por exemplo, a primeira linha da matriz mostra que a combinação do nível 1 de g1 e o nível hi de g2 tem os mesmos valores médios de resposta que a combinação do nível 2 de g1 e o nível hi de g2. O p -valor correspondente a este teste é 0,0280, o que indica que as respostas médias são significativamente diferentes. Você também pode ver esse resultado na figura. A barra azul mostra o intervalo de comparação para a resposta média para a combinação do nível 1 de g1 e nível hi de g2. As barras vermelhas são os intervalos de comparação para a resposta média para outras combinações de grupo. Nenhuma das barras vermelhas se sobrepõe à barra azul, o que significa que a resposta média para a combinação de nível 1 de g1 e nível hi de g2 é significativamente diferente da resposta média para outras combinações de grupo.

Você pode testar os outros grupos clicando no intervalo de comparação correspondente para o grupo. A barra em que você clica fica azul. As barras dos grupos significativamente diferentes são vermelhas. As barras dos grupos que não são significativamente diferentes são cinza. Por exemplo, se você clicar no intervalo de comparação para a combinação de nível 1 de g1 e nível lo de g2, o intervalo de comparação para a combinação de nível 2 de g1 e nível lo de g2 se sobrepõe e, portanto, é cinza. Por outro lado, os outros intervalos de comparação são vermelhos, indicando diferença significativa.

Procedimentos de comparação múltipla

Para especificar o procedimento de comparação múltipla que você deseja que o multcompare conduza, use o argumento de par nome-valor 'CType'. multcompare fornece os seguintes procedimentos:

Procedimento de Diferença Honestamente Significativa de Tukey

Você pode especificar o procedimento de diferença significativa de Tukey usando o argumento de par nome-valor 'CType', 'Tukey-Kramer' ou 'CType', 'hsd'. O teste é baseado na distribuição de alcance estudentizado. Rejeitar H0:αeu = αj E se

| t | = | y ¯ i - y ¯ j | M S E (1 n i + 1 n j) & gt 1 2 q α, k, N - k,

onde q α, k, N - k é o 100 * superior (1 & # 8211 α) º percentil da distribuição da faixa estudentizada com parâmetro k e Nk graus de liberdade. k é o número de grupos (tratamentos ou meios marginais) e N é o número total de observações.

O procedimento de diferença honestamente significativa de Tukey é ideal para ANOVA unilateral balanceada e procedimentos semelhantes com tamanhos de amostra iguais. Provou ser conservador para ANOVA unilateral com diferentes tamanhos de amostra. De acordo com a conjectura de Tukey-Kramer não comprovada, também é preciso para problemas onde as quantidades sendo comparadas são correlacionadas, como na análise de covariância com valores de covariáveis ​​desequilibrados.

Método Bonferroni

Você pode especificar o método Bonferroni usando o par nome-valor 'CType', 'bonferroni'. Este método usa valores críticos do aluno t-distribuição após um ajuste para compensar as comparações múltiplas. O teste rejeita H0:αeu = αj no nível de significância α / 2 (k 2), onde k é o número de grupos se

| t | = | y ¯ i - y ¯ j | M S E (1 n i + 1 n j) & gt t α 2 (k 2), N - k,

Onde N é o número total de observações e k é o número de grupos (médias marginais). Este procedimento é conservador, mas geralmente menos do que o procedimento de Scheffé.

Abordagem de Dunn e Sidák

Você pode especificar a abordagem de Dunn & amp Sidák usando o argumento de par nome-valor 'CType', 'dunn-sidak'. Ele usa valores críticos do t-distribuição, após um ajuste para comparações múltiplas que foi proposto por Dunn e provou ser preciso por Sidák. Este teste rejeita H0:αeu = αj E se

| t | = | y ¯ i - y ¯ j | M S E (1 n i + 1 n j) & gt t 1 - η / 2, v,

e k é o número de grupos. Este procedimento é semelhante, mas menos conservador do que o procedimento de Bonferroni.

Diferença Menos Significativa

Você pode especificar o procedimento de diferença de menor importância usando o argumento de par nome-valor 'CType', 'lsd'. Este teste usa a estatística de teste

t = y ¯ i - y ¯ j M S E (1 n i + 1 n j).

| y ¯ i - y ¯ j | & gt t α 2, N - k M S E (1 n i + 1 n j) ︸ L S D.

Fisher sugere uma proteção contra múltiplas comparações realizando LSD apenas quando a hipótese nula H0: α1 = α2 = . = αk é rejeitado por ANOVA F-teste. Mesmo neste caso, o LSD pode não rejeitar nenhuma das hipóteses individuais. Também é possível que ANOVA não rejeite H0, mesmo quando há diferenças entre algumas médias do grupo. Esse comportamento ocorre porque a igualdade dos meios de grupo restantes pode causar o F-teste a estatística para não ser significativa. Sem qualquer condição, o LSD não oferece nenhuma proteção contra o problema de comparação múltipla.

Procedimento de Scheffe

Você pode especificar o procedimento de Scheffe usando o argumento de par nome-valor 'CType', 'scheffe'. Os valores críticos são derivados do F distribuição. O teste rejeita H0:αeu = αj E se

| y ¯ i - y ¯ j | M S E (1 n i + 1 n j) & gt (k - 1) F k - 1, N - k, α

Este procedimento fornece um nível de confiança simultâneo para comparações de todas as combinações lineares das médias. É conservador para comparações de diferenças simples de pares.


Algoritmos / código de recursão Q's do teste de HS

private void doSort (int lowerIndex, int higherIndex)
<
if (lowerIndex & lt higherIndex)
<
int middle = lowerIndex + (higherIndex - lowerIndex) / 2
doSort (lowerIndex, middle)
doSort (middle + 1, higherIndex)
doSomething (lowerIndex, middle, higherIndex)
>
>

public static int lolUthought (int [] array, int key)
<
int n = array.length
int primeiro = 0
int último = n - 1
int meio = (primeiro + último) / 2

enquanto (primeiro & lt = último)
<
if (array [middle] & lt key)
<
primeiro = meio + 1
>
else if (array [middle] == key)
<
voltar meio
>
outro
<
último = meio - 1
>

I - A ordenação por seleção é sempre mais rápida do que a ordenação por inserção

II - A classificação por inserção é sempre mais rápida do que a classificação por seleção

III - Quando a Ordenação por Seleção coloca um elemento na parte ordenada do array, esse elemento está em sua posição final, enquanto a Ordenação por Inserção pode mover o elemento posteriormente se encontrar um elemento menor. Selection Sort constrói um array absolutamente ordenado conforme avança, enquanto o Insertion Sort constrói um array relativamente ordenado conforme avança.


Classificação (ou tipo) de comparação múltipla: procedimentos de etapa única versus passo a passo

Conforme mencionado anteriormente, testes repetidos com determinados grupos resultam no problema sério conhecido como inflação & # x003b1. Portanto, vários métodos de MCT foram desenvolvidos em estatísticas ao longo dos anos. 2) A maioria dos pesquisadores da área está interessada em entender as diferenças entre grupos relevantes. Esses grupos podem ser todos pares nos experimentos, ou um controle e outros grupos, ou mais de dois grupos (um subgrupo) e outros grupos de experimentos (outro subgrupo). Independentemente do tipo de pares a serem comparados, todos os métodos de comparação de subgrupos post hoc devem ser aplicados sob a significância do resultado ANOVA completo. 3)

Normalmente, os MCTs são categorizados em duas classes, procedimentos de etapa única e passo a passo. Os procedimentos stepwise são divididos em métodos step-up e step-down. Essa classificação depende do método usado para tratar o erro tipo I. Conforme indicado por seu nome, o procedimento de etapa única assume uma taxa de erro tipo I hipotética. Sob essa suposição, quase todas as comparações de pares (várias hipóteses) são realizadas (testadas usando um valor crítico). Em outras palavras, toda comparação é independente. Um exemplo típico é o teste de diferença mínima significativa (LSD) de Fisher & # x02019. Outros exemplos são os testes de Bonferroni, Sidak, Scheff & # x000e9, Tukey, Tukey-Kramer, Hochberg & # x02019s GF2, Gabriel e Dunnett.

O procedimento stepwise trata o erro tipo I de acordo com resultados de comparação previamente selecionados, ou seja, ele processa comparações pareadas em uma ordem predeterminada, e cada comparação é realizada apenas quando o resultado da comparação anterior é estatisticamente significativo. Em geral, esse método melhora o poder estatístico do processo enquanto preserva a taxa de erro tipo I em todo o processo. Entre as estatísticas de teste de comparação, o teste mais significativo (para procedimentos de redução) ou o teste menos significativo (para procedimentos de redução) é identificado e as comparações são realizadas sucessivamente quando o resultado do teste anterior é significativo. Se um teste de comparação durante o processo falhar em rejeitar uma hipótese nula, todos os testes restantes serão rejeitados. Este método não determina o mesmo nível de significância que os métodos de etapa única; ele classifica todos os grupos relevantes em subgrupos estatisticamente semelhantes. Os métodos passo a passo incluem os testes Ryan-Einot-Gabriel-Welsch Q (REGWQ), Ryan-Einot-Gabriel-Welsch F (REGWF), Student-Newman-Keuls (SNK) e Duncan. Esses métodos têm usos diferentes, por exemplo, o teste SNK é iniciado para comparar os dois grupos com as maiores diferenças os outros dois grupos com as segundas maiores diferenças são comparados apenas se houver uma diferença significativa na comparação anterior. Portanto, esse método é chamado de métodos de redução porque as extensões das diferenças são reduzidas à medida que as comparações prosseguem. Nota-se que o valor crítico para comparação varia para cada par. Ou seja, depende da amplitude das diferenças médias entre os grupos. Quanto menor for o intervalo de comparação, menor será o valor crítico para o intervalo, portanto, embora a potência aumente, a probabilidade de erro do tipo I aumenta.

Todos os métodos acima mencionados podem ser usados ​​apenas na situação de suposição de variância igual. Se a suposição de variância igual for violenta durante o processo ANOVA, as comparações de pares devem ser baseadas nas estatísticas dos testes Tamhane & # x02019s T2, Dunnett & # x02019s T3, Games-Howell e Dunnett & # x02019s C.

Método de Tukey

Este teste usa testes post-hoc de pares para determinar se há uma diferença entre a média de todos os pares possíveis usando uma distribuição de intervalo estudentizada. Este método testa todos os pares possíveis de todos os grupos. Inicialmente, o teste de Tukey foi denominado teste & # x02018Diferença honesta significativa & # x02019 ou simplesmente teste & # x02018T & # x02019 4) porque esse método foi baseado na distribuição t. Observa-se que o teste de Tukey é baseado nas mesmas contagens de amostra entre os grupos (dados balanceados) que a ANOVA. Posteriormente, Kramer modificou esse método para aplicá-lo em dados não balanceados e ficou conhecido como teste de Tukey-Kramer. Este método usa a média harmônica do tamanho da célula das duas comparações. Os pressupostos estatísticos da ANOVA também devem ser aplicados ao método de Tukey. 5)

A Fig. 2 mostra os resultados de exemplo de ANOVA unilateral e teste de Tukey para comparações múltiplas. De acordo com esta figura, o teste de Tukey é realizado com um nível crítico, conforme descrito anteriormente, e os resultados de todas as comparações entre pares são apresentados em uma tabela na seção & # x02018 teste post-hoc. & # X02019 Os resultados concluem que os grupos A e B são diferentes, enquanto os grupos A e C não são diferentes e os grupos B e C também não são diferentes. Esses resultados ímpares continuam na última tabela denominada & # x02018 Subconjuntos homogêneos. & # X02019 Os grupos A e C são semelhantes e os grupos B e C também são semelhantes, no entanto, os grupos A e B são diferentes. Uma inferência desse tipo é diferente com o raciocínio silogístico. Em matemática, se A = B e B = C, então A = C. No entanto, em estatística, quando A = B e B = C, A não é o mesmo que C porque todos esses resultados são prováveis ​​resultados com base em estatísticas. Resultados tão contraditórios podem ter origem em poder estatístico inadequado, ou seja, tamanho pequeno da amostra. O teste de Tukey é um método generoso para detectar a diferença durante a comparação par a par (menos conservador) para evitar esse resultado ilógico, um tamanho de amostra adequado deve ser garantido, o que dá origem a erros padrão menores e aumenta a probabilidade de rejeição da hipótese nula.

Um exemplo de resultado de análise de variância (ANOVA) unilateral com teste de Tukey para comparação múltipla realizada usando IBM & # x024c7 SPSS & # x024c7 Statistics (ver 23.0, IBM & # x024c7 Co., EUA). Os grupos A, B e C são comparados. O teste de diferença significativa honestamente de Tukey (HSD) foi realizado sob o resultado significativo da ANOVA. Os resultados de comparação múltipla apresentaram diferenças estatísticas entre os grupos A e B, mas não entre os grupos A e C e entre os grupos B e C. No entanto, na última tabela & # x02018 Subconjuntos homogêneos & # x02019, há um resultado contraditório: as diferenças entre os grupos A e C e os grupos B e C não são significativos, embora exista uma diferença significativa entre os grupos A e B. Esta interpretação inconsistente pode ter origem em evidências insuficientes.

Método Bonferroni: divisão & # x00251 (método Dunn & # x02019s)

O método Bonferroni pode ser usado para comparar grupos diferentes na linha de base, estudar a relação entre as variáveis ​​ou examinar um ou mais desfechos em ensaios clínicos. É aplicado como um teste post-hoc em muitos procedimentos estatísticos, como ANOVA e suas variantes, incluindo análise de covariância (ANCOVA) e ANOVA multivariada (MANOVA) testes t múltiplos e análise de correlação de Pearson & # x02019s. Também é usado em vários testes não paramétricos, incluindo o Mann-Whitney você teste, teste dos postos sinalizados de Wilcoxon e teste por postos de Kruskal-Wallis [4], e como teste para dados categóricos, como o teste Qui-quadrado. Quando usado como um teste post hoc após ANOVA, o método de Bonferroni usa limites baseados na distribuição t, o método de Bonferroni é mais rigoroso do que o teste de Tukey, que tolera erros do tipo I, e mais generoso do que o muito conservador Scheff & # x000e9 & # x02019s método.

No entanto, também apresenta desvantagens, visto que é desnecessariamente conservador (com fraco poder estatístico). O & # x003b1 ajustado geralmente é menor do que o necessário, principalmente se houver muitos testes e / ou se as estatísticas de teste estiverem positivamente correlacionadas. Portanto, esse método freqüentemente falha em detectar diferenças reais. Se o estudo proposto requer que o erro do tipo II deve ser evitado e possíveis efeitos não devem ser perdidos, não devemos usar a correção de Bonferroni. Em vez disso, devemos usar um método mais liberal como o LSD de Fisher e # x02019s, que não controla a taxa de erro familiar (FWER). 6) Outra alternativa para a correção de Bonferroni para produzir resultados excessivamente conservadores é usar o método stepwise (sequencial), para o qual os métodos de Bonferroni-Holm e Hochberg são adequados, que são menos conservadores que o teste de Bonferroni [5].

Método Dunnett

Este é um método particularmente útil para analisar estudos com grupos de controle, com base em t- estatísticas de teste (distribuição t de Dunnett & # x02019s). É uma estatística poderosa e, portanto, pode descobrir diferenças relativamente pequenas, mas significativas, entre grupos ou combinações de grupos. O teste de Dunnett é usado por pesquisadores interessados ​​em testar dois ou mais grupos experimentais contra um único grupo de controle. No entanto, o teste de Dunnett tem a desvantagem de não comparar os grupos, exceto o grupo de controle, entre si.

Como exemplo, suponha que existam três grupos experimentais A, B e C, nos quais uma droga experimental é usada, e um grupo de controle em um estudo. No teste de Dunnett, uma comparação do grupo de controle com A, B, C ou suas combinações é realizada, no entanto, nenhuma comparação é feita entre os grupos experimentais A, B e C. Portanto, o poder do teste é maior porque o o número de testes é reduzido em comparação com a & # x02018 comparação em pares. & # x02019

Por outro lado, o método Dunnett é capaz de realizar testes & # x02018twotailed & # x02019 ou & # x02018one-tailed & # x02019, o que o torna diferente de outros métodos de comparação de pares. Por exemplo, se o efeito de um novo medicamento não for conhecido, o teste bicaudal deve ser usado para confirmar se o efeito do novo medicamento é melhor ou pior do que o de um controle convencional. Posteriormente, um teste unilateral é necessário para comparar o novo medicamento e o controle. Uma vez que o teste bilateral ou unilateral pode ser realizado de acordo com a situação, o método de Dunnett pode ser usado sem quaisquer restrições.

Método Scheff & # x000e9 & # x02019s: método exploratório post-hoc

O método Scheff & # x000e9 & # x02019s não é um teste simples de comparação entre pares. Com base na distribuição F, é um método para realizar comparações simultâneas e conjuntas de pares para todas as combinações possíveis de pares da média de cada grupo [6]. Ele controla o FWER após considerar todas as combinações de pares possíveis, enquanto o teste de Tukey controla o FWER quando apenas todas as comparações de pares são feitas. 7) É por isso que o método Scheff & # x000e9 & # x02019s é muito conservador do que outros métodos e tem pequeno poder para detectar as diferenças. Uma vez que o método Scheff & # x000e9 & # x02019s gera hipóteses com base em todas as comparações possíveis para confirmar a significância, este método é preferido quando o embasamento teórico para diferenças entre grupos não está disponível ou estudos anteriores não foram completamente implementados (análise exploratória de dados). As hipóteses geradas dessa maneira devem ser testadas por estudos subsequentes que são especificamente projetados para testar novas hipóteses. Isso é importante na análise de dados exploratórios ou no processo de teste teórico (por exemplo, se um erro tipo I é provável de ocorrer neste tipo de estudo e as diferenças devem ser identificadas em estudos subsequentes). Devem ser usados ​​estudos de acompanhamento testando contrastes específicos de subgrupos descobertos por meio da aplicação do método Scheff & # x000e9 & # x02019s. Métodos de Bonferroni apropriados para estudos de teste teórico. É ainda observado que os métodos de Bonferroni são menos sensíveis a erros do tipo I do que o método Scheff & # x000e9 & # x02019s. Finalmente, o método Scheff & # x000e9 & # x02019s permite comparações de médias simples ou complexas em dados balanceados e não balanceados.

Violação da suposição de equivalência de variância

A ANOVA unilateral é realizada apenas nos casos em que a suposição de equivalência da variância é válida. No entanto, é uma estatística robusta que pode ser usada mesmo quando há um desvio da suposição de equivalência. In such cases, the Games-Howell, Tamhane’s T2, Dunnett’s T3, and Dunnett’s C tests can be applied.

The Games-Howell method is an improved version of the Tukey-Kramer method and is applicable in cases where the equivalence of variance assumption is violated. It is a t-test using Welch’s degree of freedom. This method uses a strategy for controlling the type I error for the entire comparison and is known to maintain the preset significance level even when the size of the sample is different. However, the smaller the number of samples in each group, the it is more tolerant the type I error control. Thus, this method can be applied when the number of samples is six or more.

Tamhane’s T2 method gives a test statistic using the t-distribution by applying the concept of ‘multiplicative inequality’ introduced by Sidak. Sidak’s multiplicative inequality theorem implies that the probability of occurrence of intersection of each event is more than or equal to the probability of occurrence of each event. Compared to the Games-Howell method, Sidak’s theorem provides a more rigorous multiple comparison method by adjusting the significance level. In other words, it is more conservative than type I error control. Contrarily, Dunnett’s T3 method does not use the t-distribution but uses a quasi-normalized maximum-magnitude distribution (studentized maximum modulus distribution), which always provides a narrower CI than T2. The degrees of freedom are calculated using the Welch methods, such as Games-Howell or T2. This Dunnett’s T3 test is understood to be more appropriate than the Games-Howell test when the number of samples in the each group is less than 50. It is noted that Dunnett’s C test uses studentized range distribution, which generates a slightly narrower CI than the Games-Howell test for a sample size of 50 or more in the experimental group however, the power of Dunnett’s C test is better than that of the Games-Howell test.


Containment operators

The containment operators ( -contains , -notcontains , -in , and -notin ) are similar to the equality operators, except that they always return a Boolean value, even when the input is a collection. These operators stop comparing as soon as they detect the first match, whereas the equality operators evaluate all input members. In a very large collection, these operators return quicker than the equality operators.

-contains and -notcontains

These operators tell whether a set includes a certain element. -contains returns True when the right-hand side (test object) matches one of the elements in the set. -notcontains returns False instead. When the test object is a collection, these operators use reference equality, i.e. they check whether one of the set's elements is the same instance of the test object.

-in and -notin

The -in and - notin operators were introduced in PowerShell 3 as the syntactic reverse of the of contains and -notcontain operators. -in returns True when the left-hand side <test-object> matches one of the elements in the set. -notin returns False instead. When the test object is a set, these operators use reference equality to check whether one of the set's elements is the same instance of the test object.

The following examples do the same thing that the examples for -contain and -notcontain do, but they are written with -in and -notin instead.


Assista o vídeo: Lineaire vergelijkingen met twee variabelen - WiskundeAcademie (Outubro 2021).