algorithm - synthese - passerelle 2 synthèse




La question de l'entrevue facile devient plus difficile: les nombres donnés 1..100, trouver le nombre manquant(s) (20)

Attends une minute. Comme la question est posée, il y a 100 numéros dans le sac. Peu importe la taille de k, le problème peut être résolu en temps constant, car vous pouvez utiliser un ensemble et supprimer des nombres de l'ensemble au plus 100 itérations d'une boucle. 100 est constant. L'ensemble des nombres restants est votre réponse.

Si nous généralisons la solution aux nombres de 1 à N, rien ne change sauf que N n'est pas une constante, donc nous sommes dans le temps O (N - k) = O (N). Par exemple, si nous utilisons un ensemble de bits, nous plaçons les bits à 1 dans le temps O (N), parcourons les nombres, mettons les bits à 0 comme nous allons (O (Nk) = O (N)) et nous avoir la réponse.

Il me semble que l'intervieweur vous demandait comment imprimer le contenu de l'ensemble final en temps O (k) plutôt qu'en O (N). Clairement, avec un ensemble de bits, vous devez parcourir tous les N bits pour déterminer si vous devez imprimer le numéro ou non. Cependant, si vous modifiez la façon dont l'ensemble est implémenté, vous pouvez imprimer les nombres en k itérations. Ceci est fait en plaçant les nombres dans un objet à stocker dans un ensemble de hachage et une liste doublement chaînée. Lorsque vous supprimez un objet du jeu de hachage, vous le supprimez également de la liste. Les réponses seront laissées dans la liste qui est maintenant de longueur k.

J'ai eu une expérience d'entretien d'embauche intéressante il y a quelque temps. La question a commencé vraiment facile:

Q1 : Nous avons un sac contenant les numéros 1 , 2 , 3 , ..., 100 . Chaque nombre apparaît exactement une fois, il y a donc 100 nombres. Maintenant, un numéro est choisi au hasard dans le sac. Trouvez le nombre manquant.

J'ai entendu cette question d'entrevue avant, bien sûr, alors j'ai très rapidement répondu comme suit:

A1 : Eh bien, la somme des nombres 1 + 2 + 3 + … + N est (N+1)(N/2) (voir Wikipedia: somme des séries arithmétiques ). Pour N = 100 , la somme est 5050 .

Ainsi, si tous les nombres sont présents dans le sac, la somme sera exactement 5050 . Puisqu'un nombre est manquant, la somme sera inférieure à ceci, et la différence est ce nombre. Nous pouvons donc trouver ce nombre manquant en temps O(N) et O(1) .

À ce stade, je pensais que j'avais bien fait, mais tout à coup la question a pris un tour inattendu:

Q2 : C'est exact, mais maintenant, comment feriez-vous cela si DEUX numéros manquent?

Je n'avais jamais vu / entendu / considéré cette variation auparavant, alors j'ai paniqué et je n'ai pas pu répondre à la question. L'intervieweur a insisté pour connaître mon processus de pensée, alors j'ai mentionné que nous pourrions peut-être obtenir plus d'informations en comparant avec le produit attendu, ou peut-être en faisant une deuxième fois après avoir recueilli des informations du premier passage, etc. dans le noir plutôt que d'avoir un chemin clair vers la solution.

L'intervieweur a essayé de m'encourager en disant qu'une deuxième équation est en fait une façon de résoudre le problème. À ce stade, j'étais un peu contrarié (pour ne pas connaître la réponse avant la main), et je lui ai demandé s'il s'agissait d'une technique de programmation générale (lire: "utile") ou si c'était juste une réponse.

La réponse de l'intervieweur m'a surpris: vous pouvez généraliser la technique pour trouver 3 nombres manquants. En fait, vous pouvez le généraliser pour trouver k nombres manquants.

Qk : Si exactement des k numéros manquent dans le sac, comment le trouveriez-vous efficacement?

C'était il y a quelques mois, et je n'arrivais toujours pas à comprendre ce qu'est cette technique. Évidemment, il y a une limite de temps Ω(N) puisque nous devons balayer tous les nombres au moins une fois, mais l'intervieweur a insisté sur le fait que la complexité temporelle et spatiale de la technique de résolution (moins le balayage d'entrée de temps O(N) pas N.

Donc la question ici est simple:

  • Comment résoudriez-vous Q2 ?
  • Comment résoudriez-vous Q3 ?
  • Comment résoudriez- vous Qk ?

Clarifications

  • Généralement, il y a N numéros de 1 .. N , pas seulement 1..100.
  • Je ne cherche pas la solution basée sur des ensembles évidents, par exemple en utilisant un ensemble de bits , codant la présence / absence de chaque nombre par la valeur d'un bit désigné, utilisant donc O(N) bits dans l'espace supplémentaire. Nous ne pouvons nous permettre aucun espace supplémentaire proportionnel à N.
  • Je ne suis pas non plus à la recherche de la première approche évidente. Ceci et l'approche basée sur les ensembles méritent d'être mentionnés dans une interview (ils sont faciles à mettre en œuvre, et en fonction de N , peuvent être très pratiques). Je suis à la recherche de la solution Holy Grail (qui peut ou non être pratique à mettre en œuvre, mais qui possède néanmoins les caractéristiques asymptotiques souhaitées).

Encore une fois, bien sûr, vous devez scanner l'entrée dans O(N) , mais vous ne pouvez capturer qu'une petite quantité d'information (définie en termes de k non N ), et devez alors trouver les k nombres manquants.


Comme l'a souligné @j_random_hacker, ceci est assez similaire à Trouver des doublons dans le temps O (n) et dans l'espace O (1) , et une adaptation de ma réponse fonctionne là aussi.

En supposant que le "sac" est représenté par un tableau basé sur 1 A[] de taille N - k , nous pouvons résoudre Qk en temps O(N) et O(k) espace supplémentaire.

Tout d'abord, nous étendons notre tableau A[] par k éléments, de sorte qu'il est maintenant de taille N C'est l'espace additionnel O(k) . Nous exécutons ensuite l'algorithme de pseudo-code suivant:

for i := n - k + 1 to n
    A[i] := A[1]
end for

for i := 1 to n - k
    while A[A[i]] != A[i] 
        swap(A[i], A[A[i]])
    end while
end for

for i := 1 to n
    if A[i] != i then 
        print i
    end if
end for

La première boucle initialise les k entrées supplémentaires à la même que la première entrée dans le tableau (c'est juste une valeur pratique que nous savons est déjà présente dans le tableau - après cette étape, toutes les entrées qui manquaient dans le tableau initial de taille Nk sont toujours manquants dans le tableau étendu).

La deuxième boucle permute le tableau étendu de sorte que si l'élément x est présent au moins une fois, alors l'une de ces entrées sera à la position A[x] .

Notez que bien qu'il ait une boucle imbriquée, il s'exécute toujours en temps O(N) - un échange ne se produit que s'il y a un i tel que A[i] != i , et chaque swap définit au moins un élément tel que A[i] == i , où ce n'était pas vrai avant. Cela signifie que le nombre total de swaps (et donc le nombre total d'exécutions du corps de la boucle while) est au plus N-1 .

La troisième boucle imprime les index du tableau i qui ne sont pas occupés par la valeur i - cela signifie que i dois avoir manqué.


Je n'ai pas vérifié les maths, mais je suppose que calculer Σ(n^2) dans le même passage que nous calculons Σ(n) fournirait assez d'information pour obtenir deux nombres manquants, Do Σ(n^3) aussi si il y en a trois, et ainsi de suite.


Le problème avec les solutions basées sur la somme des nombres est qu'ils ne prennent pas en compte le coût de stockage et de travail avec des nombres avec de grands exposants ... en pratique, pour qu'il fonctionne pour n très grand, une bibliothèque de grands nombres serait employée . Nous pouvons analyser l'utilisation de l'espace pour ces algorithmes.

Nous pouvons analyser la complexité temporelle et spatiale des algorithmes de sdcvvc et Dimitris Andreou.

Espace de rangement:

l_j = ceil (log_2 (sum_{i=1}^n i^j))
l_j > log_2 n^j  (assuming n >= 0, k >= 0)
l_j > j log_2 n \in \Omega(j log n)

l_j < log_2 ((sum_{i=1}^n i)^j) + 1
l_j < j log_2 (n) + j log_2 (n + 1) - j log_2 (2) + 1
l_j < j log_2 n + j + c \in O(j log n)`

Donc l_j \in \Theta(j log n)

Stockage total utilisé: \sum_{j=1}^k l_j \in \Theta(k^2 log n)

Espace utilisé: en supposant que calculer a^j prend ceil(log_2 j) temps, temps total:

t = k ceil(\sum_i=1^n log_2 (i)) = k ceil(log_2 (\prod_i=1^n (i)))
t > k log_2 (n^n + O(n^(n-1)))
t > k log_2 (n^n) = kn log_2 (n)  \in \Omega(kn log n)
t < k log_2 (\prod_i=1^n i^i) + 1
t < kn log_2 (n) + 1 \in O(kn log n)

Temps total utilisé: \Theta(kn log n)

Si ce temps et cet espace sont satisfaisants, vous pouvez utiliser un algorithme récursif simple. Soit b! I l'entrée ith dans le sac, n le nombre de chiffres avant les retraits, et k le nombre de suppressions. Dans la syntaxe Haskell ...

let
  -- O(1)
  isInRange low high v = (v >= low) && (v <= high)
  -- O(n - k)
  countInRange low high = sum $ map (fromEnum . isInRange low high . (!)b) [1..(n-k)]
  findMissing l low high krange
    -- O(1) if there is nothing to find.
    | krange=0 = l
    -- O(1) if there is only one possibility.
    | low=high = low:l
    -- Otherwise total of O(knlog(n)) time
    | otherwise =
       let
         mid = (low + high) `div` 2
         klow = countInRange low mid
         khigh = krange - klow
       in
         findMissing (findMissing low mid klow) (mid + 1) high khigh
in
  findMising 1 (n - k) k

Stockage utilisé: O(k) pour la liste, O(log(n)) pour la pile: O(k + log(n)) Cet algorithme est plus intuitif, a la même complexité temporelle et utilise moins d'espace.


Pas sûr, si c'est la solution la plus efficace, mais je voudrais boucler sur toutes les entrées, et utiliser un bitset pour se souvenir, quels sont les nombres sont fixés, puis tester pour 0 bits.

J'aime les solutions simples - et je crois même, que cela pourrait être plus rapide que de calculer la somme, ou la somme des carrés, etc.


Pour résoudre la question 2 (et 3) numéros manquants, vous pouvez modifier quickselect , qui s'exécute en moyenne dans O(n) et utilise la mémoire constante si le partitionnement est effectué sur place.

  1. Partitionner l'ensemble par rapport à un pivot aléatoire p en partitions l , qui contiennent des nombres plus petits que le pivot, et r , qui contiennent des nombres supérieurs au pivot.

  2. Déterminer les partitions dans lesquelles se trouvent les 2 nombres manquants en comparant la valeur de pivot à la taille de chaque partition ( p - 1 - count(l) = count of missing numbers in l et n - count(r) - p = count of missing numbers in r )

  3. a) S'il manque un nombre à chaque partition, utilisez l'approche de la différence des sommes pour trouver chaque nombre manquant.

    (1 + 2 + ... + (p-1)) - sum(l) = missing #1 et ((p+1) + (p+2) ... + n) - sum(r) = missing #2

    b) Si une partition manque les deux nombres et que la partition est vide, alors les nombres manquants sont (p-1,p-2) ou (p+1,p+2) selon la partition qui manque les nombres.

    Si une partition manque 2 nombres mais n'est pas vide, alors recurse sur cette partie.

Avec seulement 2 nombres manquants, cet algorithme rejette toujours au moins une partition, donc il conserve O(n) complexité moyenne en temps de quickselect. De même, avec 3 nombres manquants, cet algorithme rejette également au moins une partition à chaque passage (car comme avec 2 nombres manquants, au plus une seule partition contiendra plusieurs nombres manquants). Cependant, je ne suis pas sûr de combien les performances diminuent quand plus de nombres manquants sont ajoutés.

Voici une implémentation qui n'utilise pas le partitionnement sur place, donc cet exemple ne répond pas à l'exigence d'espace mais illustre les étapes de l'algorithme:

<?php

  $list = range(1,100);
  unset($list[3]);
  unset($list[31]);

  findMissing($list,1,100);

  function findMissing($list, $min, $max) {
    if(empty($list)) {
      print_r(range($min, $max));
      return;
    }

    $l = $r = [];
    $pivot = array_pop($list);

    foreach($list as $number) {
      if($number < $pivot) {
        $l[] = $number;
      }
      else {
        $r[] = $number;
      }
    }

    if(count($l) == $pivot - $min - 1) {
      // only 1 missing number use difference of sums
      print array_sum(range($min, $pivot-1)) - array_sum($l) . "\n";
    }
    else if(count($l) < $pivot - $min) {
      // more than 1 missing number, recurse
      findMissing($l, $min, $pivot-1);
    }

    if(count($r) == $max - $pivot - 1) {
      // only 1 missing number use difference of sums
      print array_sum(range($pivot + 1, $max)) - array_sum($r) . "\n";
    } else if(count($r) < $max - $pivot) {
      // mroe than 1 missing number recurse
      findMissing($r, $pivot+1, $max);
    }
  }

Demo


Voici un résumé du lien de Dimitris Andreou .

Rappelez-vous la somme des puissances i-ième, où i = 1,2, .., k. Cela réduit le problème à résoudre le système d'équations

a 1 + a 2 + ... + a k = b 1

a 1 2 + a 2 2 + ... + a k 2 = b 2

...

a 1 k + a 2 k + ... + a k k = b k

En utilisant les identités de Newton , savoir b i permet de calculer

c 1 = a 1 + a 2 + ... a k

c 2 = a 1 a 2 + a 1 a 3 + ... + a k-1 a k

...

c k = a 1 a 2 ... a k

Si vous développez le polynôme (xa 1 ) ... (xa k ) les coefficients seront exactement c 1 , ..., c k - voir les formules de Viète . Puisque chaque facteur polynomial unique (anneau de polynômes est un domaine euclidien ), cela signifie que i est déterminé de manière unique, jusqu'à la permutation.

Ceci termine une preuve que le rappel des pouvoirs est suffisant pour récupérer les nombres. Pour k constant, c'est une bonne approche.

Cependant, lorsque k varie, l'approche directe du calcul c 1 , ..., c k est prohibitivement chère, puisque c k est le produit de tous les nombres manquants, magnitude n! / (Nk) !. Pour surmonter cela, effectuez des calculs dans le champ Z q , où q est un nombre premier tel que n <= q <2n - il existe par le postulat de Bertrand . La preuve n'a pas besoin d'être modifiée, puisque les formules sont toujours valables, et la factorisation des polynômes est toujours unique. Vous avez également besoin d'un algorithme de factorisation sur des corps finis, par exemple celui de Berlekamp ou de Cantor-Zassenhaus .

Pseudo-code de haut niveau pour la constante k:

  • Calculer les i-ième puissances de nombres donnés
  • Soustraire pour obtenir des sommes de puissance i-ème de nombres inconnus. Appelez les sommes b i .
  • Utiliser les identités de Newton pour calculer les coefficients de b i ; appelez les c i . Fondamentalement, c 1 = b 1 ; c 2 = (c 1 b 1 - b 2 ) / 2; voir Wikipedia pour les formules exactes
  • Facteur le polynôme x k -c 1 x k-1 + ... + c k .
  • Les racines du polynôme sont les nombres nécessaires a 1 , ..., a k .

Pour faire varier k, trouver un nombre premier n <= q <2n en utilisant par exemple Miller-Rabin, et effectuer les étapes avec tous les nombres réduits modulo q.

Comme l'a commenté Heinrich Apfelmus, au lieu d'un q premier, vous pouvez utiliser q = 2 ⌈log n⌉ et effectuer l' arithmétique en champ fini .


Voici une solution qui utilise k bits de stockage supplémentaire, sans astuces astucieuses et simple. Temps d'exécution O (n), espace supplémentaire O (k). Juste pour prouver que cela peut être résolu sans lire d'abord sur la solution ou être un génie:

void puzzle (int* data, int n, bool* extra, int k)
{
    // data contains n distinct numbers from 1 to n + k, extra provides
    // space for k extra bits. 

    // Rearrange the array so there are (even) even numbers at the start
    // and (odd) odd numbers at the end.
    int even = 0, odd = 0;
    while (even + odd < n)
    {
        if (data [even] % 2 == 0) ++even;
        else if (data [n - 1 - odd] % 2 == 1) ++odd;
        else { int tmp = data [even]; data [even] = data [n - 1 - odd]; 
               data [n - 1 - odd] = tmp; ++even; ++odd; }
    }

    // Erase the lowest bits of all numbers and set the extra bits to 0.
    for (int i = even; i < n; ++i) data [i] -= 1;
    for (int i = 0; i < k; ++i) extra [i] = false;

    // Set a bit for every number that is present
    for (int i = 0; i < n; ++i)
    {
        int tmp = data [i];
        tmp -= (tmp % 2);
        if (i >= odd) ++tmp;
        if (tmp <= n) data [tmp - 1] += 1; else extra [tmp - n - 1] = true;
    }

    // Print out the missing ones
    for (int i = 1; i <= n; ++i)
        if (data [i - 1] % 2 == 0) printf ("Number %d is missing\n", i);
    for (int i = n + 1; i <= n + k; ++i)
        if (! extra [i - n - 1]) printf ("Number %d is missing\n", i);

    // Restore the lowest bits again.
    for (int i = even; i < n; ++i) data [i] += 1;
}

Vous pouvez résoudre Q2 si vous avez la somme des deux listes et le produit des deux listes.

(l1 is the original, l2 is the modified list)

d = sum(l1) - sum(l2)
m = mul(l1) / mul(l2)

We can optimise this since the sum of an arithmetic series is n times the average of the first and last terms:

n = len(l1)
d = (n/2)*(n+1) - sum(l2)

Now we know that (if a and b are the removed numbers):

a + b = d
a * b = m

So we can rearrange to:

a = s - b
b * (s - b) = m

And multiply out:

-b^2 + s*b = m

And rearrange so the right side is zero:

-b^2 + s*b - m = 0

Then we can solve with the quadratic formula:

b = (-s + sqrt(s^2 - (4*-1*-m)))/-2
a = s - b

Sample Python 3 code:

from functools import reduce
import operator
import math
x = list(range(1,21))
sx = (len(x)/2)*(len(x)+1)
x.remove(15)
x.remove(5)
mul = lambda l: reduce(operator.mul,l)
s = sx - sum(x)
m = mul(range(1,21)) / mul(x)
b = (-s + math.sqrt(s**2 - (-4*(-m))))/-2
a = s - b
print(a,b) #15,5

I do not know the complexity of the sqrt, reduce and sum functions so I cannot work out the complexity of this solution (if anyone does know please comment below.)


A very simple way to do it in roughly O(N) time is to remove each element when seen in both lists. This works for unsorted lists too and can be easily further optimized if the lists are both sorted.

import random

K = 2
missingNums = range(0, 101)
incompleteList = range(0, 101)

#Remove K numbers
for i in range(K):
    valueToRemove = random.choice(incompleteList)
    incompleteList.remove(valueToRemove)

dummyVariable = [missingNums.remove(num) for num in p if num in missingNums]

print missingNums

I believe I have a O(k) time and O(log(k)) space algorithm, given that you have the floor(x) and log2(x) functions for arbitrarily big integers available:

You have an k -bit long integer (hence the log8(k) space) where you add the x^2 , where x is the next number you find in the bag: s=1^2+2^2+... This takes O(N) time (which is not a problem for the interviewer). At the end you get j=floor(log2(s)) which is the biggest number you're looking for. Then s=sj and you do again the above:

for (i = 0 ; i < k ; i++)
{
  j = floor(log2(s));
  missing[i] = j;
  s -= j;
}

Now, you usually don't have floor and log2 functions for 2756 -bit integers but instead for doubles. Alors? Simply, for each 2 bytes (or 1, or 3, or 4) you can use these functions to get the desired numbers, but this adds an O(N) factor to time complexity


I don't know whether this is efficient or not but I would like to suggest this solution.

  1. Compute xor of the 100 elements
  2. Compute xor of the 98 elements (after the 2 elements are removed)
  3. Now (result of 1) XOR (result of 2) gives you the xor of the two missing nos i..ea XOR b if a and b are the missing elements
    4.Get the sum of the missing Nos with your usual approach of the sum formula diff and lets say the diff is d.

Now run a loop to get the possible pairs (p,q) both of which lies in [1 , 100] and sum to d.

When a pair is obtained check whether (result of 3) XOR p = q and if yes we are done.

Please correct me if I am wrong and also comment on time complexity if this is correct


I think this can be done without any complex mathematical equations and theories. Below is a proposal for an in place and O(2n) time complexity solution:

Input form assumptions :

# of numbers in bag = n

# of missing numbers = k

The numbers in the bag are represented by an array of length n

Length of input array for the algo = n

Missing entries in the array (numbers taken out of the bag) are replaced by the value of the first element in the array.

Par exemple. Initially bag looks like [2,9,3,7,8,6,4,5,1,10]. If 4 is taken out, value of 4 will become 2 (the first element of the array). Therefore after taking 4 out the bag will look like [2,9,3,7,8,6,2,5,1,10]

The key to this solution is to tag the INDEX of a visited number by negating the value at that INDEX as the array is traversed.

    IEnumerable<int> GetMissingNumbers(int[] arrayOfNumbers)
    {
        List<int> missingNumbers = new List<int>();
        int arrayLength = arrayOfNumbers.Length;

        //First Pass
        for (int i = 0; i < arrayLength; i++)
        {
            int index = Math.Abs(arrayOfNumbers[i]) - 1;
            if (index > -1)
            {
                arrayOfNumbers[index] = Math.Abs(arrayOfNumbers[index]) * -1; //Marking the visited indexes
            }
        }

        //Second Pass to get missing numbers
        for (int i = 0; i < arrayLength; i++)
        {                
            //If this index is unvisited, means this is a missing number
            if (arrayOfNumbers[i] > 0)
            {
                missingNumbers.Add(i + 1);
            }
        }

        return missingNumbers;
    }

I think this can be generalized like this:

Denote S, M as the initial values for the sum of arithmetic series and multiplication.

S = 1 + 2 + 3 + 4 + ... n=(n+1)*n/2
M = 1 * 2 * 3 * 4 * .... * n 

I should think about a formula to calculate this, but that is not the point. Anyway, if one number is missing, you already provided the solution. However, if two numbers are missing then, let's denote the new sum and total multiple by S1 and M1, which will be as follows:

S1 = S - (a + b)....................(1)

Where a and b are the missing numbers.

M1 = M - (a * b)....................(2)

Since you know S1, M1, M and S, the above equation is solvable to find a and b, the missing numbers.

Now for the three numbers missing:

S2 = S - ( a + b + c)....................(1)

Where a and b are the missing numbers.

M2 = M - (a * b * c)....................(2)

Now your unknown is 3 while you just have two equations you can solve from.


May be this algorithm can work for question 1:

  1. Precompute xor of first 100 integers(val=1^2^3^4....100)
  2. xor the elements as they keep coming from input stream ( val1=val1^next_input)
  3. final answer=val^val1

Or even better:

def GetValue(A)
    for i=1 to 100
     do
       val=val^i
     done
     for value in A:
       do
         val=val^value 
       done
    return val

This algorithm can in fact be expanded for two missing numbers. The first step remains the same. When we call GetValue with two missing numbers the result will be a a1^a2 are the two missing numbers. Lets say

val = a1^a2

Now to sieve out a1 and a2 from val we take any set bit in val. Lets say the ith bit is set in val. That means that a1 and a2 have different parity at ith bit position. Now we do another iteration on the original array and keep two xor values. One for the numbers which have the ith bit set and other which doesn't have the ith bit set. We now have two buckets of numbers, and its guranteed that a1 and a2 will lie in different buckets. Now repeat the same what we did for finding one missing element on each of the bucket.


There is a general way to generalize streaming algorithms like this. The idea is to use a bit of randomization to hopefully 'spread' the k elements into independent sub problems, where our original algorithm solves the problem for us. This technique is used in sparse signal reconstruction, among other things.

  • Make an array, a , of size u = k^2 .
  • Pick any universal hash function , h : {1,...,n} -> {1,...,u} . (Like multiply-shift )
  • For each i in 1, ..., n increase a[h(i)] += i
  • For each number x in the input stream, decrement a[h(x)] -= x .

If all of the missing numbers have been hashed to different buckets, the non-zero elements of the array will now contain the missing numbers.

The probability that a particular pair is sent to the same bucket, is less than 1/u by definition of a universal hash function. Since there are about k^2/2 pairs, we have that the error probability is at most k^2/2/u=1/2 . That is, we succeed with probability at least 50%, and if we increase u we increase our chances.

Notice that this algorithm takes k^2 logn bits of space (We need logn bits per array bucket.) This matches the space required by @Dimitris Andreou's answer (In particular the space requirement of polynomial factorization, which happens to also be randomized.) This algorithm also has constant time per update, rather than time k in the case of power-sums.

In fact, we can be even more efficient than the power sum method by using the trick described in the comments.


Try to find the product of numbers from 1 to 50:

Let product, P1 = 1 x 2 x 3 x ............. 50

When you take out numbers one by one, multiply them so that you get the product P2. But two numbers are missing here, hence P2 < P1.

The product of the two mising terms, axb = P1 - P2.

You already know the sum, a + b = S1.

From the above two equations, solve for a and b through a quadratic equation. a and b are your missing numbers.


Very nice problem. I'd go for using a set difference for Qk. A lot of programming languages even have support for it, like in Ruby:

missing = (1..100).to_a - bag

It's probably not the most efficient solution but it's one I would use in real life if I was faced with such a task in this case (known boundaries, low boundaries). If the set of number would be very large then I would consider a more efficient algorithm, of course, but until then the simple solution would be enough for me.


You can motivate the solution by thinking about it in terms of symmetries (groups, in math language). No matter the order of the set of numbers, the answer should be the same. If you're going to use k functions to help determine the missing elements, you should be thinking about what functions have that property: symmetric. The function s_1(x) = x_1 + x_2 + ... + x_n is an example of a symmetric function, but there are others of higher degree. In particular, consider the elementary symmetric functions . The elementary symmetric function of degree 2 is s_2(x) = x_1 x_2 + x_1 x_3 + ... + x_1 x_n + x_2 x_3 + ... + x_(n-1) x_n , the sum of all products of two elements. Similarly for the elementary symmetric functions of degree 3 and higher. They are obviously symmetric. Furthermore, it turns out they are the building blocks for all symmetric functions.

You can build the elementary symmetric functions as you go by noting that s_2(x,x_(n+1)) = s_2(x) + s_1(x)(x_(n+1)) . Further thought should convince you that s_3(x,x_(n+1)) = s_3(x) + s_2(x)(x_(n+1)) and so on, so they can be computed in one pass.

How do we tell which items were missing from the array? Think about the polynomial (z-x_1)(z-x_2)...(z-x_n) . It evaluates to 0 if you put in any of the numbers x_i . Expanding the polynomial, you get z^n-s_1(x)z^(n-1)+ ... + (-1)^n s_n . The elementary symmetric functions appear here too, which is really no surprise, since the polynomial should stay the same if we apply any permutation to the roots.

So we can build the polynomial and try to factor it to figure out which numbers are not in the set, as others have mentioned.

Finally, if we are concerned about overflowing memory with large numbers (the nth symmetric polynomial will be of the order 100! ), we can do these calculations mod p where p is a prime bigger than 100. In that case we evaluate the polynomial mod p and find that it again evaluates to 0 when the input is a number in the set, and it evaluates to a non-zero value when the input is a number not in the set. However, as others have pointed out, to get the values out of the polynomial in time that depends on k , not N , we have to factor the polynomial mod p .


You could try using a Bloom Filter . Insert each number in the bag into the bloom, then iterate over the complete 1-k set until reporting each one not found. This may not find the answer in all scenarios, but might be a good enough solution.





math