Nano Hash - криптовалюты, майнинг, программирование

Используя пары слов из словаря, не содержащие общих букв, найдите пару, которая максимизирует сумму длин слов.

Вопрос:

Используя пары слов из словаря, не содержащие общих букв, найдите пару, которая максимизирует сумму длин слов.

Пример словаря: мышь, корова, соединение, ключ, собака

собака и ключ не имеют одинаковых букв и имеют сумму 3+3 = 6

мышь не работает с коровой, присоединиться или собакой, так как все они имеют общую букву "о"

join и key не имеют общих букв и имеют сумму 4+3 = 7

У меня был этот вопрос в интервью, мое решение, которое я придумал, описано ниже. Мне было интересно, есть ли способ сделать его более эффективным? Я использовал два BitSets для сопоставления алфавита двух слов и И их вместе, чтобы увидеть, содержат ли они одни и те же буквы. Я думаю, что сложность моего алгоритма равна o(n!), что неэффективно. Есть ли лучший способ оптимизировать мой алгоритм?

public static void maximumSum (String[] dictionary) {
    // ascii of a = 97
    BitSet word1 = new BitSet(26);
    BitSet word2 = new BitSet(26);

    String maxWord1 = "";
    String maxWord2 = "";
    int maxSum = -1;

    for(int i = 0; i<dictionary.length; i++) {
        for(int j = i+1; j<dictionary.length; j++) {
            String s1 = dictionary[i];
            String s2 = dictionary[j];
            for(int k = 0; k<s1.length(); k++) {
                word1.set(s1.charAt(k)-97);
            }
            for(int k = 0; k<s2.length(); k++) {
                word2.set(s2.charAt(k)-97);
            }
            word1.and(word2);
            if(word1.cardinality() == 0) {
                if(maxSum < s1.length()+s2.length()) {
                    maxWord1 = s1;
                    maxWord2 = s2;
                    maxSum = s1.length()+s2.length();
                }
            }
            word1.clear();
            word2.clear();
        }
    }
    if(maxSum == -1)
        System.out.println("All the words have letters in common.");
    else
        System.out.println("'"+maxWord1+"' and '"+maxWord2+"' 
        have a maximum sum of "+maxSum);
}

public static void main(String[] args) {
    String[] dictionary = {"mouse", "cow", "join", "key", "dog"};
    maximumSum(dictionary);
}

выход:

'join' and 'key' have a maximum sum of 7

  • Я не знаю, почему ты говоришь о(н!). Ваш алгоритм немного неэффективен для подхода грубой силы, но это O (n ^ 2 avg (длина)), где avg (длина) означает среднюю длину слова в словаре. Как ответил Богдан Поп, вы могли бы быть немного эффективнее, вычисляя содержимое каждого слова только один раз. Должны быть подходы лучше, чем грубая сила, но n^2 намного лучше, чем n!. 20.04.2015
  • Вот тот же вопрос на Quora: -они-нет-общих-символов-и-сумма-их-длины-максимальна" rel="nofollow noreferrer">quora.com/ 20.04.2015
  • Спасибо! Я не был точно уверен в сложности, спасибо, что прояснили это. 21.04.2015
  • Хммммм, Если буква может повторяться в слове - это меняет оптимальный подход: join и keyyyyyyyy не имеют общих букв, но длина больше, чем join и key. 15.01.2016

Ответы:


1

Вы можете сделать это за O(N^2 * 26) (26 представляет собой количество символов в вашем словаре, вероятно, английский алфавит).

ПЕРВЫЙ Создайте массив 2D bool, D[i][j].

я - целое число

j - символ от 'a' до 'z' (вы можете использовать код ASCII вместо символа)

D[i][j] = 1, если слово с индексом i содержит букву j, иначе D[i][j] = 0;

После того, как у вас есть этот 2D-массив, вы можете проверить каждую пару слов, если у них есть общая буква (вы выполняете итерацию для каждой пары, каждой буквы вашего словаря). Если они этого не сделают, вы реализуете максимальную сумму.

19.04.2015

2

Вот подход, который можно было бы назвать O(n*avg), хотя, возможно, его следовало бы назвать O(n*avg+a*2^a), где a — размер алфавита, n — количество слов, а avg — средняя длина слов в словаре, на случай, если вы сделайте это с большими алфавитами. Это не будет улучшением по сравнению с методом грубой силы, упомянутым Богданом Попом, если ваш словарь содержит всего несколько тысяч слов, но это будет улучшение, если словарь содержит сотни тысяч слов. Для сравнения, словарь SOWPODS, используемый некоторыми игроками в Scrabble, содержит более 267 000 слов. Большая часть этого подхода, до последнего абзаца, по существу такая же, как Ответ Михала Форишека на Quora.

Для каждого слова w определить его длину l(w) и какие буквы оно содержит s(w).

Для каждого из 2 ^ a подмножеств алфавита определите самое длинное слово, содержащее именно эти буквы, перебирая каждое слово w и заменяя сохраненную длину в s (w) максимальным значением самого себя и l (w).

Для каждого из 2^a подмножеств алфавита определите самое длинное слово, содержащее не более этих букв. Это можно сделать за O(a*2^a) шагов, потому что каждое подмножество размера k покрывает k меньших подмножеств с k-1 буквами. Мы вычисляем значение индуктивно как самое длинное слово, содержащее именно эти буквы или содержащееся в одном из k-1 покрытых подмножеств.

Теперь мы можем перебрать все подмножества алфавита, суммируя длину самого длинного слова, используя именно эти буквы, и длину самого длинного слова, содержащегося в дополнении этого подмножества.

Одна неудовлетворительная часть этого подхода заключается в том, что время значительно увеличивается из-за включения необычных букв. Затрачиваемое время увеличивается примерно в 20 раз из-за Q, X, J и Z, которые не так уж часто встречаются в словах в целом, и я думаю, что не в длинных словах. Итак, предположим, что есть r слов, содержащих хотя бы одну из b редких букв. Мы можем использовать описанный выше алгоритм для слов без редких букв за O(n*avg+(a-b)2^(a-b)) шагов. Затем мы можем подобрать пары слов, которые оба содержат редкие буквы, за O(r^2*a) шагов. Наконец, мы можем проверить наличие пар слов, в которых первое содержит редкую букву, а второе нет, перебирая r слов, содержащих редкую букву, и проверяя самое длинное слово, содержащее в дополнении только обычные буквы. В последнем случае требуется O(r*avg) шагов, поэтому асимптотически им можно пренебречь. Итак, выбрав несколько редких букв, мы можем сократить время до O(n*avg+(a-b)2^(a-b)+r^2*avg). По крайней мере, в стандартном английском словаре есть редко используемые буквы, так что это было бы сокращением.

20.04.2015
Новые материалы

Кластеризация: более глубокий взгляд
Кластеризация — это метод обучения без учителя, в котором мы пытаемся найти группы в наборе данных на основе некоторых известных или неизвестных свойств, которые могут существовать. Независимо от..

Как написать эффективное резюме
Предложения по дизайну и макету, чтобы представить себя профессионально Вам не позвонили на собеседование после того, как вы несколько раз подали заявку на работу своей мечты? У вас может..

Частный метод Python: улучшение инкапсуляции и безопасности
Введение Python — универсальный и мощный язык программирования, известный своей простотой и удобством использования. Одной из ключевых особенностей, отличающих Python от других языков, является..

Как я автоматизирую тестирование с помощью Jest
Шутка для победы, когда дело касается автоматизации тестирования Одной очень важной частью разработки программного обеспечения является автоматизация тестирования, поскольку она создает..

Работа с векторными символическими архитектурами, часть 4 (искусственный интеллект)
Hyperseed: неконтролируемое обучение с векторными символическими архитектурами (arXiv) Автор: Евгений Осипов , Сачин Кахавала , Диланта Хапутантри , Тимал Кемпития , Дасвин Де Сильва ,..

Понимание расстояния Вассерштейна: мощная метрика в машинном обучении
В обширной области машинного обучения часто возникает необходимость сравнивать и измерять различия между распределениями вероятностей. Традиционные метрики расстояния, такие как евклидово..

Обеспечение масштабируемости LLM: облачный анализ с помощью AWS Fargate и Copilot
В динамичной области искусственного интеллекта все большее распространение получают модели больших языков (LLM). Они жизненно важны для различных приложений, таких как интеллектуальные..