Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
To jest wół.
Rysunek 19. wół,
W 1906 roku w Anglia odbyły się zawody w sędziowaniu wagi.
787 osób zgadnęło wagę wołu. Średnia niezgodność poszczególnych szacunków wynosiła 37 lb (niezgodność 3,1%). Jednak ogólna mediana szacunków była tylko o 4 kg od rzeczywistej wagi byka (539 kg), co oznacza błąd wynoszący zaledwie 0,7%.
Rysunek 20. Histogram z poszczególnymi przypuszczalnymi wartościami wagi.
Ta anegdota ilustruje mądrość tłumu:w pewnych sytuacjach zbiorcza opinia pozwala na bardzo trafne oceny.
Matematycznie mądrość tłumu można modelować za pomocą twierdzenia centralnego limitu rozkładu: nieformalnie błąd kwadratowy między wartością a średnią z N szumowych oszacowań tej wartości zmierza do zera z współczynnikiem 1/N.
Jeśli jednak zmienne nie są niezależne, odchylenie standardowe jest większe.
W uczeniu maszynowym zbiór to zbiór modeli, których prognozy są uśredniane (lub w jakiś sposób agregowane). Jeśli modele zbiorcze są na tyle różne, że nie są zbyt złe pojedynczo, jakość zbioru jest zazwyczaj lepsza niż jakość poszczególnych modeli. Model zbiorczy wymaga więcej czasu na trenowanie i wykonywanie wnioskowania niż pojedynczy model. W końcu musisz przeprowadzić trenowanie i wykonywanie wniosków na wielu modelach, a nie na jednym.
Aby modele zbiorcze działały jak najlepiej, poszczególne modele powinny być niezależne. Na przykład ensemble złożone z 10 identycznych modeli (czyli w żaden sposób nie niezależnych) nie będzie lepsze od pojedynczego modelu. Z drugiej strony wymuszenie niezależności modeli może spowodować ich pogorszenie. Skuteczne tworzenie zbiorów wymaga znalezienia równowagi między niezależnością modelu a jakością jego podmodeli.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-04-30 UTC."],[[["The \"wisdom of the crowd\" suggests that collective opinions can provide surprisingly accurate judgments, as demonstrated by a 1906 ox weight-guessing competition where the collective guess was remarkably close to the true weight."],["This phenomenon can be explained by the Central Limit Theorem, which states that the average of multiple independent estimates tends to converge towards the true value."],["In machine learning, ensembles leverage this principle by combining predictions from multiple models, improving overall accuracy when individual models are sufficiently diverse and reasonably accurate."],["While ensembles require more computational resources, their enhanced predictive performance often outweighs the added cost, especially when individual models are carefully selected and combined."],["Achieving optimal ensemble performance involves striking a balance between ensuring model independence to avoid redundant predictions and maintaining the individual quality of sub-models for overall accuracy."]]],[]]